【天之水微语】
谨防掉入AI合成诈骗的陷阱
在当今数字化高速发展的时代,一种新型的诈骗手段正悄然兴起,那便是令人警惕的 AI 合成诈骗。
近段时间,央视新闻CCTV13《法治在线》介绍了两起“AI换脸伪造不雅照”案,相关诈骗团伙主要利用被害者视频照片信息制作“艳照”进行敲诈。
第一起是深圳市民吴先生收到一张包含自己与一名不认识女子的“艳照”彩信,犯罪嫌疑人同时在彩信中威胁当事人需在指定时间前将钱财转到指定账号“破财消灾”,此后吴先生报警求助。
深圳坪山警方经调查锁定了一个流窜作案的犯罪团伙,该团伙以“已掌握你在外面找小姐”、“艳照将公诸于众”等方式进行威胁,在多地警方协作下,警方抓获了以王某为首的十多名犯罪嫌疑人,相关团伙分工明确,据称“有人修图、有人寻作案目标”。
而在山东威海,也有受害者王先生遭到类似“AI换脸”敲诈勒索,他的手机同样接收到一张包含自己面孔的“裸照”彩信,同时附带有“我有你的全部影像资料”等文字内容。在王先生试图向犯罪嫌疑人转账20万元时,工作人员紧急叫停了相关行为并报警,警方顺藤摸瓜抓获了背后的敲诈勒索犯罪组织。
随着人工智能技术的日新月异,不法分子也趁机利用这一先进科技,精心编织出一个个诈骗的陷阱。AI 合成诈骗手段之高明,令人防不胜防。
从技术层面来看,AI 能够模拟出逼真的声音、形象和语言模式。例如,通过对某人声音特征的分析和学习,AI 可以完美复刻其声音,让接听电话的人误以为就是本人在交流。再比如,利用某人的照片和视频素材,AI 能够合成以假乱真的动态影像,从而制造出虚假的场景和对话。
在现实生活中,已经有不少受害者深陷 AI 合成诈骗的泥沼。有的不法分子利用 AI 合成技术冒充亲人,以紧急情况为由骗取钱财;有的则伪装成金融机构的工作人员,诱导受害者提供个人敏感信息,进而实施财产盗窃。
AI 合成诈骗的出现,不仅给个人带来了巨大的经济损失,也对社会的信任体系造成了严重冲击。人们在交流和交易中变得更加小心翼翼,生怕一不小心就落入诈骗的圈套。
为了防范 AI 合成诈骗,我们需要多方面的努力。首先个人要提高自身的防范意识,不轻易相信网络上的陌生信息,对于涉及钱财和重要个人信息的交流务必谨慎核实。同时,相关部门也应加强监管力度,制定更为严格的法律法规,对利用 AI 技术进行诈骗的行为予以严厉打击。科研机构和企业则应当致力于研发更先进的识别和防范技术,为社会筑牢安全防线。
警方提醒,此类犯罪嫌疑人通常通过网络等渠道搜集受害者视频照片等信息,利用“AI换脸技术”合成所谓不雅视频或艳照,再通过短信、邮箱等渠道对受害者进行敲诈勒索,如果用户接到不法分子此类短信,应及时向警方报案求助。