随着科技快速地进步,诈骗的手段也在不断地更新换代,特别是人工智能技术被应用之后,让这种现象变得更加明显了。
ai时代
当AI换脸以及声音合成技术呈现在你眼前之时,你能否明晰地分辨出其真假呢?
今天我将给大家讲讲几种新型骗局,希望大家及时转发,避免成为下一个受害者。
难以捉摸的ai换脸诈骗2023年4月20日,福州市某科技公司法人代表郭先生在短短10分钟内被骗走430万元人民币。这一案件引起了社会的广泛关注,成为了AI诈骗的典型案例。郭先生的好友通过微信视频与他联系,利用AI换脸技术伪装成好友进行诈骗,成功骗取了巨额资金。
事件发生在4月20日11时40分左右,郭先生接到了好友的微信视频通话。两人经过简短的寒暄后,好友声称自己有一个朋友在外地投标,需要430万元作为保证金,并要求借用郭先生公司的账户进行转账。由于是通过视频通话,郭先生对“好友”的身份深信不疑。
在那个视频当中,骗子让郭先生提供银行卡号,还声称已经将430万元打进了郭先生的账户;随后骗子通过微信发送了一张银行转账底单的截图,以此来增加可信度。郭先生没有去核实资金到底有没有到账,就在11时49分这个时间点,先后两次把430万元转交给了对方。
ai诈骗
转账弄好之后,郭先生用微信跟“好友”讲事情已经办妥。可是呢他收到的回复就只是一个问号,这可把他弄得挺糊涂的。接着郭先生给好友打电话,这才晓得对方压根儿就没进行过任何相关的操作。就在那一瞬间,他猛地意识到自己或许碰到诈骗啦。
骗子借助AI换脸技术,把自身的面庞伪装成郭先生的好友模样,使得视频里的“好友”看上去极为真实可信。此技术手段致使受害者在心理层面放松了戒备,进而造成了巨额资金的损失。
在意识到自己被骗之后,郭先生即刻报了警。福州与包头这两地的警方迅速展开行动,借助银行的协助,顺利地止付并拦截了336.84万元;不过仍然有93.16万元被转移出去了,眼下正在全力进行追缴。此案件不但揭示出了AI技术在诈骗领域的应用,其实也应当引发我们对新型诈骗手法的深刻思考。
想象一下,当一个声音样貌与你的亲朋好友完全相同的人出现在视频当中,你还能分辨出来吗?
为了能有效防备AI换脸诈骗,下面是给大家说一些具体的防范建议:首先要提高警惕性不轻信陌生人,对陌生人发来的视频或语音信息保持高度警惕,尤其是在涉及金钱转账或个人信息时。当你的微信好友希望你进行转账时,一定要通过电话、短信等其他通讯方式确认对方的身份,尤其是在对方声称是熟人或领导时。
其次要强化社交媒体的隐私防护,在社交媒体平台上降低个人信息以及照片的公开程度,时常去查验隐私设置,仅准许值得信赖的朋友来查看个人信息。需避免在不清楚的平台上分享人脸、指纹这类生物特征,尽可能地缩减个人信息的展露范围。
第三要下载反诈应用,安装国家反诈中心等官方应用,以获取最新的诈骗案例和防范知识。这个真的很有用,国家已经尽力在帮助大家识破诈骗了。
最后给大家讲个小窍门,大家在进行视频通话的时候,能让对方做些特定的动作,像“掐脸”“捏鼻子”这类的接着查看视频有没有异常变形或者穿模的情况,通过这个来判别视频是不是假的。
结语希望大家记住,只要一直保持警觉,在转账之前一定要去确认清楚,不要去贪恋小便宜,也不要轻易相信天上会无缘无故地掉下馅饼来,就不会让骗子得逞。
信息源:
AI诈骗上热搜!长相声音都对,“换脸”的“朋友”骗了他430万…澎湃新闻·澎湃号·媒体