随着科技的进步,人们的生活水平的提高,在衣食住行方面都能得到更好的享受。
但科技也是一把双刃剑,在为了人民带来益处的同时,也同时存在着一些弊端。
但这本质上并非科技之错,而是有不法分子在钻了科技的漏洞。
以前警察总是在宣传让大家注意电话诈骗,可如今一种新型的骗局悄然来袭,诈骗的成功率甚至已经接近了百分之百!
即便是懂科技的年轻人也很难避免这种情况,因此大家一定要注意一下这种新骗局。
一、新骗局来了今年宁夏警方接获了一起报案,报案者声称他被诈骗了1.5万元,警方得知消息之后,对这起案件也相当重视。
在了解事情详情之后,警方也意识到,现在诈骗人员的手段那是越来越多。
以前他们还只是通过电话诈骗,可现在他们都已经能够通过视频电话来诈骗了。
按照报案人的说法,他今年意外接到了他表哥的视频电话。
他的表哥在电话那头声称,他现在正在和别人谈合作,但因为他身处非洲,转账不方便,希望让报案人帮他垫付一下。
报案人一看是自己的亲戚,自然是慷慨解囊,而且有视频为证,他也没有怀疑对面这个表哥的真实身份。
等到他把钱转过去之后,他才意识到不对劲。
因为他联系了亲戚后才得知,给他打视频电话的表哥并不是本人,报案人对此特别震惊。
警方在得知此事后迅速开始了调查,结果发现原来对方是通过AI技术实现了换脸和拟声技术。
因此报案人才没有发现异样,此事在被媒体报道之后,也不禁让人有些毛骨悚然。
而且这样的事情还不是个例,后来北青网又报道了一则消息,一位湖南的老人意外接到了一个facetime的视频来电。
在视频中和他通话的人,看着是个穿着警服的公职人员,对方一开口就是说老人涉嫌违法犯罪,需要配合警方进行资金审核。
幸好当时有“义警”发现了老人的不对劲,这才制止了一场骗局,老人在事后也有些后怕。
因为当时老人是没有怀疑过对方的身份的,甚至还非常主动的配合视频中所谓“警察”的要求,差一点就给对方转钱。
老人后续也向警方反馈,他最近这段时间经常会收到一些陌生电话。
警方敏锐的意识到,老人的个人信息可能已经泄露,所以立即让老人办了新卡,就是为了避免此后发生类似的事件。
除了模仿亲戚和公职人员之外,有些不法分子还直接用AI假冒名人,近期网络上就出现了AI合成的张文宏。
张文宏在视频中在给蛋白棒带货,消费者出于对于名人的信任,蛋白棒还卖出了不少,这其实也是属于在欺骗消费者。
随着AI技术的不断发展,网络上频频出现AI换脸合成人声等一系列相关的视频,甚至还出现了“假雷军”、“假靳东”,“假拜登”……
从视频内容上来看,这些名人看起来状态都挺正常的,如果不是知道AI能够换脸的话,或许很多人都会觉得,视频中那些话都是他们本人说的。
这些视频的流传不仅给名人带来了很多困扰,也使得互联网的信息变得更加的杂乱,人民的财产安全也越来越受威胁。
二、AI诈骗的方式现在AI骗局层出不穷,凭借着高度逼真的模仿效果,不少人都因此受骗。
毕竟现在的AI已经能精准的模仿他人的语音、音色甚至是语调。
有些诈骗分子会故意钻漏洞,利用AI软件去收集一些特定人物的语音样本,后续就能够靠着AI系统生成相似的语音。
有时候在电话诈骗的场景中,很多接听者都会因此受骗。
因为接听者误认为和自己通话的是熟悉的人,所以警惕性都是比较低的。
尤其是当诈骗分子通过AI技术,模拟受害者亲人出车祸等意外情况的时候,这更会扰乱受害者的心。
因为在紧张的情绪之下,受害者往往是不能想那么多的,为了节约时间,他们往往会不假思索的按照对方的要求进行操作。
等到冷静下来或许能有人意识到不对劲,但钱已经转出去了,再想追回来可就难了。
除了语音模仿之外,视频和图像的合成也让AI骗局显得更加的真实。
现在AI可以对视频和图像进行换脸,通过深度学习算法,目标人物的一些面部特征,是能够转换到其他人的身体上的。
所以在现在的一些案例中,才会存在着诈骗分子假冒名人推荐产品的直播视频,出于对于权威人士的信赖,受害者往往很难意识到不对劲。
从现在媒体报道过的AI诈骗来看,犯罪分子诈骗的方式主要分为以下这几种。
一是通过假冒熟人进行诈骗,二是通过假冒名人或者权威人士进行诈骗,三是通过假冒公检法进行诈骗,四是通过AI色情视频进行诈骗。
前三种不论是男女老少都比较容易受骗,而第四种女生所受到的伤害会更大。
有些不法分子会将一些女性的面部特征,通过AI合成到色情视频中,然后以此手段来威胁受害者支付金钱,不然他们就会将这些视频公布到网络上去,让受害者颜面尽失。
这不仅可能让受害者的财产受到损失,甚至可能给受害者施加莫大的心理压力。
有些人还会直接用AI生成了色情人物形象,吸引用户付费观看,甚至诱惑用户付款,等到受害者发现自己受骗之后,甚至都不好去报警。
后续不法分子为了威胁受害者,还会对受害者威逼利诱,要求他们支付更多的费用,受害者的损失也就越变越大。
因此,在现代生活中,大家一定要记得警惕这些新型的骗局,以免自身蒙受不必要的损失。
三、警惕新骗局面对越来越复杂的AI骗局,现在咱们普通人也可以做好以下这些准备。
其中特别优先的一点那就是要保护好个人信息。
有时候手机接收到一些莫名其妙的电话,可能是因为浏览了不法网站,也可能是因为点击了不明链接。
因此,不论是在线上还是线下,在对方要求填写个人信息或者录入面部内容和语音样本的时候,都一定要保持警惕,也千万不要在一些来历不明的APP上进行面部验证登录,不然后续可能会被别人利用。
平日里手机也要好好保管,不要连接公共区域的Wi-Fi,以免被他人非法获取信息用于AI诈骗。
尤其手机不慎丢失之后,一定要及时挂失。
在日常安装相关软件的时候,最好是从官方软件商店进行下载,这样也可以有效防止自身信息的泄露。
与此同时,一些防诈骗的APP也需要正常安装,这些APP是可以识别一些比较常见的诈骗电话和相关信息的。
有些软件比较先进的话,甚至还有可能对AI合成的内容进行预警,通过这些提前的准本,就可以大大降低被骗的几率。
当然,通过以上这些行为也不能完全避免AI骗局,因此为了更好的应对可能产生的风险。
在和亲友进行视频对话的时候,一定要仔细观察对方的面部信息,看看人物的口型、声音是否同步,面部表情是否自然,背景合不合理。
如果是在语音通话中,察觉对方的语音明显有些奇怪,也一定要保持警惕。
现在AI合成的语音还是存在着一定缺陷的,有时候在说话的时是不如真人自然的,因此在细节方面还是存在着一些问题的。
另外在通话的时候,千万不要被对方所预设的紧急情况所刺激。
涉及到资金转账、提供个人信息等一系列敏感操作的时候,就得保持冷静,先要停下来,核实相关情况之后再做出选择。
如果对方是熟人的话,也可以通过其他的手段联系他,或者打电话询问共同的朋友和家人来验证消息的可信度。
若是对方声称自己是公职人员或者企业客服的话,也需要通过官方网站核实其身份信息,不要通过对方提供的联系方式来进行沟通。
一般来说,公职人员和大型企业的客服,都不会要求对方提供比较敏感的信息的。
如果有条件的话,其实也可以主动了解一些AI相关的原理和技术。
现在AI越来越火,年轻人要是多了解这些方面,其实也能够提升自己的知识面,这样在遇到可疑情况时才能够迅速联想到AI。
现在网络上利用AI技术进行诈骗的不法分子越来越多,普通人需要保持警惕,而相关部门也要加强审核,维护网络的和平,让不法分子意识到网络并非法外之地。
一些喜欢用AI技术整活的网友,在这个方面也要注意界限,不要轻易利用名人的头像、声音伪造信息,不然很有可能造成一些误解,也不利于网络世界的纯洁度。