你有没有想过,未来有一天,你觉得最可靠的朋友、家人,甚至爱人,可能并非真实存在?
他们或许拥有你熟悉的长相,发出你熟悉的声音,和你分享那些共同经历的过去,但实际上,他们只是由程序编写而成,用复杂的算法构建的虚假形象,是AI技术被错误使用而产生的“假人”。

这种信任关系瓦解的情况,正在逐渐发生在我们周围,你,做好心理准备了吗?
信任连接着你我,它是社会正常运转的关键,科技进步的初衷是让交流更方便,让信任更牢靠。
但是,人工智能如果被不当利用,反而会破坏人与人之间的信任,带来我们从未遇到过的信任难题。
AI技术的滥用正在悄悄侵蚀我们原本熟悉的信任关系,数字时代的便捷似乎正在与日益加剧的信任缺失形成鲜明对比。

它凭借高超的伪装技巧,利用人们对科技和亲友的信赖,精心设置各种陷阱,让大家在没有防备的情况下遭受损失。
2023年4月,福建的郭先生就掉入了这种精心设计的陷阱,他接到一个视频电话,对方显示是他的“好友”,视频中,“好友”表示自己正在外地出差,周围环境声音嘈杂,一切都显得非常逼真。
信源:警惕!这种诈骗成功率近100%,有人10分钟被骗430万元,全国多地频发……2023-05-25 上观新闻

“好友”说因为项目投标需要缴纳保证金,希望借用郭先生的公司账户走账430万元,并且保证稍后会把钱还回来,“好友”还发来了看起来很真的转账截图。
因为视频里“好友”的脸和声音都和真人一模一样,郭先生彻底相信了对方。
他没细想,就按“好友”说的,分两笔把430万转到指定账户。钱一转过去,就完全没了消息,他联系了真朋友,这才知道自己被AI换脸给骗了,430万巨款就这样没了。

更糟的是,警察追回来的钱只有336.84万,将近一百万不知道去了哪里,想想看,如果亲眼看到的都未必是真的,我们还能相信什么呢?
还有类似的“AI脱衣”软件也在暗地里流行,一些坏人用AI技术,点一下就能“脱掉”照片里人物的衣服,恶意散布假消息,毁坏别人的名声。

更可怕的是,这种技术还被用来制作和传播黄色视频,形成了一条完整的黑色产业链。
AI换脸利用我们习惯“眼见为实”,而AI语音诈骗更可怕,它利用我们对声音的信任,特别是对熟悉的声音,比如亲人的声音。
今年三月,湖北孝感的张婆婆就遇到了这样的骗局,“孙子”小万打来电话,语气十分着急,说自己把朋友的手机摔坏了,屏幕碎了,还和朋友吵架,不小心把对方弄伤了,现在要赔偿两万块钱,不然对方就要报警。

“孙子”的声音听起来很慌乱,还带着哭腔,和平时一模一样,张婆婆为了帮助“孙子”,立刻取出自己积攒的养老钱,按照“孙子”说的地点送钱过去。
张婆婆想见到自己的孙子,但来的却是个戴着口罩和帽子的男人,那人说是孙子的朋友,替孙子来拿钱。
等到晚上,真正的孙子小万回到家,祖孙俩这才发现被骗了,他们遇到了AI语音克隆诈骗。

警察调查发现,这是一个利用AI技术模仿声音进行诈骗的团伙,他们专门找老年人下手,利用亲情关系来骗取钱财。
这个团伙的作案手法令人气愤,希望大家都能提高警惕,防止类似事件再次发生。

更让人担心的是,人工智能不仅能模仿人的长相和声音,还能创造假的图片和新闻,这让人更难辨别真假,加剧了大家对信息的怀疑。
比如,2023年5月,一张看起来像美国国防部五角大楼发生爆炸的假照片在网上迅速传播,甚至让美国股市短暂下跌。

美国国防部发言人不得不赶紧出来解释说,这张照片是人工智能生成的,不是真的,并指出照片里有很多地方明显是电脑合成的,比如路灯是歪的,人行道上突然冒出了栅栏。
就连一些知名的老牌媒体,像英国的《每日邮报》,也曾经被人工智能制造的假新闻骗到,发布了一篇关于一个加拿大男子为了去韩国当明星而整容,结果不幸去世的报道,后来发现这篇新闻完全是人工智能编造的。
更令人担忧的是,有人利用AI制造出逼真的“灾难”假象。

例如,他们能生成“2001年卡斯卡迪亚发生9.1级地震,引发海啸摧毁俄勒冈州”的图像,图片中的救援人员、记者和政府官员表情细腻,让人难以分辨真伪。
在AI技术面前,“眼见为实”的观念正在受到前所未有的挑战,类似的例子层出不穷,例如,网络上流传着美国前总统特朗普被捕的虚假照片,以及教皇方济各身穿羽绒服走秀的恶搞图片。
这些都说明AI伪造信息的能力日益强大,它对社会的潜在影响不容忽视。
AI不只会骗钱,它还能操控人的感情,制造浪漫的爱情骗局。

2024年,刘先生在刷短视频时认识了焦女士。焦女士年轻漂亮,说话很有气质,一下子就吸引了刘先生,两人很快陷入热恋,在网上甜甜蜜蜜。
但是,这段感情却一直离不开钱,焦女士总是找各种借口让刘先生给她钱,比如开店需要资金、家里人住院要交医药费等等,刘先生陆陆续续给了她二十万。
刘先生就算心里偶尔有些怀疑,还是因为“爱情”冲昏了头脑,一次又一次地答应了对方的要求。

等到他终于觉得事情不对劲,选择报警的时候,才知道根本没有所谓的“焦女士”这个人,他看到的只是AI生成的虚拟美女形象,而和他一直聊天的,是诈骗团伙专门负责聊天的“键盘手”。
他们用AI技术大量制造“美女”,在各种社交平台广泛寻找目标,专门挑那些渴望恋爱的单身人士下手,这场“网恋”的真相,是一个精心策划的骗局,是对感情的残忍玩弄。
这些令人震惊的诈骗事件,迫使我们认真思考:AI诈骗为什么会如此猖獗?归根结底,是技术被坏人利用、个人信息保护不足以及人们的防骗意识不够强这几个因素共同造成的。

有些人为了赚钱,把AI技术用在违法犯罪的事情上,形成了见不得光的黑色产业链,让AI换脸、语音合成等技术被广泛滥用。
个人信息的泄露也助长了AI诈骗的气焰。比如,如果在社交媒体上发布大量的个人照片和视频,就等于为骗子提供了可以利用的素材。
另外,大家对AI诈骗还不够了解,警惕性也不高,这让骗子有了可乘之机。特别是老年人和青少年,他们更容易被AI诈骗盯上。
AI诈骗越来越猖獗,保护自己、重建信任,我们得这么做:

先要练就一双识破AI伪造内容的慧眼,看视频的时候,多留心眼,人物表情僵不僵硬,画面有没有不协调的地方,光线是不是显得奇怪。接到语音电话,不妨让对方做几个特定的动作,或者问几个只有你们彼此清楚的问题,这样才能确认是不是本人。
看到什么消息,别急着相信,多方查证来源,确认属实再做判断。
同时,捂紧自己的“小金库”,保护好个人信息,别在公开场合把自己暴露得太多,尽量少晒照片和视频,陌生链接不要随便点,来路不明的软件不要下载,防止个人信息被窃取。

平台方面也要给力,加强内容审查和技术监管,积极推广AI内容溯源技术,给AI生成的内容打上标记,方便大家识别。还要建立完善的举报制度,及时处理用户的投诉和反馈。
打击AI诈骗,更关键的是要靠法律撑腰,让骗子付出更大的代价。
有了严格的规矩,才能打牢AI治理的基础。国家已经出台了一些规定,比如《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理办法(征求意见稿)》,目的就是规范AI技术的使用。
与此同时,行业也要自己管好自己,引导AI技术朝着健康的方向发展,我们希望各大公司在研发AI产品的时候,多想想伦理道德,开发出真正负责任的AI产品,别光想着赚钱,忘了社会责任。

人工智能技术本身并不带有什么好坏属性,好与坏取决于人们怎么运用它。
它在医疗方面能帮助医生诊断疾病,在教育方面可以提供个性化学习方案,在艺术创作领域也能激发新的灵感,这些都能让我们的生活变得更好。
孙燕姿谈到“AI孙燕姿”时,也表达了类似的看法,她觉得,虽然人工智能能很快地制作出音乐作品,但它缺少真实的情感和真正的创造力。

她相信,从长远来看,人类歌手会做得更好,超过人工智能。
笔者认为AI诈骗冒头,不光是偷我们的钱,更是对人与人之间信任的巨大冲击,在这个网络时代,怎么重新建立信任,感觉就像要重新签订一份社会协议一样。
这事儿得大家一起努力,个人、平台和政府都得出力,而且我们还得对科技进步保持警惕,同时也要相信人性的美好。

将来面对AI技术带来的各种问题,怎么既能用上它的好处,又能保护我们珍贵的信任感,这才是关键。