太惊悚了!
一位母亲正在和女儿视频。
这时,门铃响了。
她打开门后,女儿竟然出现在门口!
而此时,视频里的“女儿”还在催促她转账15000元,撒着娇说:“妈妈,我爱你。”
你以为这是电影吗?
不,这是一条AI反诈宣传片。
视频中的“女儿”,实际上是AI制造出的假象。
网友们看完,都表示头皮发麻,直呼“太吓人了”。
谁能想到,骗子也“与时俱进”,竟然把AI运用到诈骗上。
就连警方也发出警告:AI诈骗潮真的来了,成功率接近100%!
你以为的诈骗,还只是一通电话,冒充公检法吓唬你?
骗子们早已诈骗升级了。
人家高科技,效率贼高。
让你看到的和听到的,都不是真实的。
还不需要团队,一人足矣。
只因为他们掌握了新技术:AI拟声和AI换脸。
我们先来了解一下世界上首次公开报道的AI诈骗案。
据《每日邮报》报道:2019年,一名诈骗犯利用AI语音模仿软件,成功让一家英国能源公司的CEO相信自己是和德国母公司“老板”通过电话。
这位CEO收到了一封含有转账信息的邮件。
他按“老板”要求,将22万欧元在一个小时内转到匈牙利某供应商的银行账户里。
最终,这22万欧元一去不复返。
事后,这位CEO懊恼地说:“这个骗子使用的AI软件,不仅能模仿人的声音和语调,还能模仿带德国口音的英语。”
这还只能算得上是低段位的AI诈骗术。
因为它只采用了单纯的拟声技术。
更狠的骗子敢直接给你打视频电话,造个“熟人”的脸来骗你。
那么,从声音到人脸,AI诈骗能有多逼真?
福州某科技公司郭老板10分钟内被骗430万元。
2023年4月20日,郭老板突然接到一位好友的微信视频:
“老郭,我一个朋友在外地竞标,需要430万保证金。能不能帮忙借你公司账户,走个账?”
接着,好友发来了银行转账单截图,声称已将钱打到了郭老板账户上。
然而,郭先生并没核实钱是否到账,而是直接转了430万给对方账户。
事后,郭先生打电话给好友,说“事情办妥了”。
对方却惊讶回应,压根没这回事儿。
郭先生说:“从头到尾都没和我提借钱,就说走账。因为当时是视频通话的,我在视频中确认了面孔和声音,所以才放松了戒备。”
这个案件就是骗子通过AI换脸和拟声,佯装成好友,实施诈骗。
同样的骗术又在安徽何先生身上重演了。
他被骗子生成的AI“熟人”,9秒被骗走了132万。
不仅如此,骗子还能利用AI,冒充你领导。
央视新闻曾报道过:西安财务人员张女士与“老板”视频通话后,按老板指示转账了186万元。
当然,这个“老板”也是假的。
可怕的是,AI诈骗不光冒充领导、亲朋好友,走熟人路线,还能伪装更多角色。
关键还懂得利用人的软肋,打感情牌。
曾有骗子伪造某留学女孩的声音,给其母亲打电话,声称绑架了女孩,要30万赎金。
电话里,女孩撕心裂肺地喊着“妈妈救我”。
母亲则被吓懵,完全相信了这场骗局。
所以说,AI时代的新型诈骗方式,真让人看得背脊发凉。
如果以上的AI诈骗方式,让你觉得胆颤心惊,那只能说明你还没见过“世面”。
我们再来看一把高端局。
今年年初,香港警方接到一起涉案金额巨大的诈骗案。
据悉,某跨国公司香港分公司的财务职员收到了英国总部“首席财务官”的消息,说要进行某项“机密交易”。
起初,他认为这是钓鱼诈骗邮件,并没有相信。
但当骗子精心安排他参加了公司“高管”的视频会议后,他彻底放下了戒备。
在会上,总部“首席财务官”要求他马上转账2亿。
几位“高管”则商讨决策、跟进汇款事宜。
他信以为真,将2亿港元分先后15次,转到了指定账户。
事发5天后,当他向英国公司汇报时,才发现被骗。
但事实上,这场视频会议就是个惊天骗局。
整场会议只有他一个“真人”!
参会时,摄像头里看到的高管形象,全部都是AI制造出来的冒牌货。
最令人发毛的是,即使这位职员识破了骗局,但不代表公司就能躲过一劫。
因为骗子还给其他职员发过假消息。
就算这次没成功,未来还有机会呢。
这场首次涉及AI“多人变脸”的诈骗案,震动了全球。
很多人不由得对新技术表示担忧:这骗子是如何瞒天过海,最终得手的呢?
一般骗子会先筛选目标人群,然后进行大数据分析。
在这起案件中,骗子早在开始行动前,就运用强大的搜索能力,把这家公司的网上公开资料扒了个底朝天。
资料包括公司发布的视频,高层的媒体采访等等。
这样一来,骗子很容易就收集到了高管人员的形象和声音。
接下来,他们只需要利用Deepfake(深度伪造)技术,就能轻松制作出高层人员的发言视频。
所谓的“深伪技术”,就是让AI深度学习,进行人体图像的合成。
通常一张正面人脸照片,AI只需几秒,就能换脸。
而信息越多,建立的素材库就越强大,合成就越真实,越难辨真假。
目前的深伪技术能达到还原度很高的换脸效果,再结合语音伪造技术,就能做到“造人”。
骗子们最常用获取你信息的方法就是盗号、打骚扰电话。
比如:
骗子选中你后,会先盗取你的微信号等。
然后,翻看你的聊天记录和朋友圈,拿到你的照片。
通过你曾发送的语音,搞到你的声音。
如果对“专业”要求比较高的骗子,会打电话给你,收集更多声音。
所以,平日里,你接到电话时,对方不说话,或者对方是智能机器人在说话。
那么,很有可能就是骗子在等你先开口,然后收集你的声音。
最后,骗子利用软件AI换脸,将声音合成,制作出了“你”的视频。
有人说了:“上当受骗,只能怪你太不小心。”
要知道,互联网时代,捕捉一个人的行踪痕迹其实并不困难。
你发过的自拍,买过的东西,甚至你网上吐过的槽,都能被骗子拿去进行AI训练,搞出一个唬人的玩意。
你暴露的个人信息越多,大数据就能对你的人际关系、生活习惯等信息分析得越透彻。
从而,AI造出的“人”也越逼真,行骗过程也越让受害人深信不疑。
总之,AI诈骗是防不胜防,不要抱侥幸心理。
正如有句话所说:“目前你还没被骗,不是因为你聪明,也不是因为你没钱,而是适合你的‘剧本’还在路上。”
此刻,你是不是对AI诈骗了解得越多,越不寒而栗?
有人不禁要问了:AI诈骗成功率如此之高,我们该怎样破局呢?
值得庆幸的是,目前的AI诈骗术还不完美。
如果你接到视频电话,只要开口问你要钱的。
甭管对方是谁,你让他先眨眨眼,或者手指在面前晃一下,观察其面部变化,是否有变形或异常。
AI合成的视频一般都是提前录制好的。
所以它有一个大BUG,就是无法识别拐着弯的问题。
这就好办了,你就问问他:
“我们第一次是在哪里见面的啊?”
“我的外号叫什么呀?”
“你上次请我吃饭是什么时候啊?”
……
总之,越私密的问题越好。
这一通问题下来,估计骗子就露馅了。
所以,平日里最好能和家人约定个暗语。
遇到转账时,别急着打钱。
一定要多重验证身份,务必打个电话给本人,核实清楚。
最重要的是,我们要保护好日常信息安全,避免泄露个人生物信息,包括:人脸、声音、指纹等。
所以,尽量少发语音,少晒照片,不要过度公开动图、视频等个人资料。
有句话说:“在互联网世界,沉默的人代表了高深莫测。”
还有不要贪图小便宜,切勿轻易点开陌生的链接和扫二维码,提供个人信息。
比如,“免费领东西”、“积分到期换购”此类信息。
以此,避免手机被拿到授权或植入木马。
总之,请谨记:
所有诈骗的目的只有一个:骗钱。
个人防范的原则也只有一条:对于任何转账,保持警惕。
网友说:“我们还没用上AI技术呢?骗子就先用新技术来赚钱了?”
可事实上,何止骗钱这么简单,AI还会让女孩们变得更危险。
随着AI技术的门槛越来越低,导致AI换脸技术更加滥用。
一张照片,一个软件,几秒就能以假乱真。
苏大一男生恶意P图, 将女同学照片发到色情网站上,造黄谣。
南华大学男生何某更恶劣,竟然用这个来赚钱。
令人痛心的是,一名14岁的英国女孩自杀了。
因为男同学将她的头像换到了色情女演员身上,利用假视频羞辱霸凌她。
同样,很多女明星也难逃此劫,深受其害。
比如,美国流行女歌手Taylor Swift也遭遇换脸,其“不雅照片”迅速传播,浏览量高达到4700万。
可悲的是,这些受害人很难证明视频中的人不是自己。
再说,看热闹的人谁在乎结果?
仅在2019年,网上已有1.5万个深伪视频,其中96%都是色情视频。
除此以外,P不雅视频进行敲诈勒索;用政治人物或名人的脸制作虚假事件;换成家长的脸来拐卖儿童……
这些都成为AI犯罪的温床。
AI技术的阴暗面,不仅仅造成财产损失,也会造成巨大的精神伤害。
人工智能的边界到底在哪里?
近来,对于人工智能的监管和立法的呼声也越来越大。
各国政府都在酝酿出台人工智能的监管法律。
去年3月,埃隆•·马斯克曾联合上千名学术界人士,公开呼吁所有AI实验室暂停训练比ChatGPT更强大的AI系统,以控制风险。
而我国的国家网信办在去年4月11日,起草了《生成式人工智能服务管理办法(征求意见稿)》,对人工智能的产品和使用提出多项明确规定。
即使技术在迅猛发展,人类也要学会反思,学会收敛,要用魔法打败魔法。
“人工智能教父”杰弗里·欣顿曾向媒体坦言,后悔开发AI,因为AI可能会给人类带来毁灭。
“我真的找不到方法,怎么防止坏人用AI做坏事?”
诚然,人工智能的发展给人类带来了进步。
但人工智能也是一把双刃剑。
罗振宇2024年跨年演讲时,也提及到人工智能这一话题。
他引用了万维钢的一句话:“人永远是最终决定者。因为人可以用血肉之躯承担决定的后果。”
其实,很多事情都是人类自己搞出来的。
所有结果,无论好坏,人类终将自己承受。
科技向善,才是人类未来应该做出的正确选择。
本文作者 | 剥开的四季豆责任编辑 | 淡淡翠策划 | 小可