这种照片不要随便发!紧急提醒!

DV现场 2024-09-12 03:10:30

近日

韩国曝出“Deepfake”(深度伪造技术)事件

多个关于“韩国AI深度伪造”的话题词

引发网友热议

据韩媒报道

针对女性的深度伪造犯罪

在韩国日趋猖獗

Deepfakes是利用AI换脸制造色情图频

韩国网民在通讯软件

“电报”(Telegram)上

发现大量聊天群

其中有成员创建和分享露骨的

性“深度伪造”图像

对象涉及未成年女孩

在此过程中

加害者还毫不犹豫地

公布受害女性的身份

威胁受害人,索要钱财

据央视新闻报道

韩国教育部9日表示

今年已发生400多起

涉及中小学的相关案件

受害者累计超过600人

韩国教育部就涉深度伪造性犯罪问题,对全国17个地方教育厅展开调查。结果显示,今年初至9月6日,全国小学、初中和高中共发生434起利用深度伪造技术实施的性犯罪,受害者数量共计617人。其中,受害学生588人,教职员工29人。

从学校级别来看,上述案件中,涉高中的有243起、初中179起、小学12起。

从调查数据看,利用深度伪造技术的犯罪数量呈激增势头。8月28日至9月6日仅10天内,韩国新增238起涉中小学的相关案件。从年初到8月27日,相关案件总数为196起。

韩联社资料图

如何快速识别AI换脸变声诈骗?

深度鉴伪5秒让AI换脸诈骗无处遁形

如何为“一老一小”构建安全通讯环境?

AI技术强力反制电信诈骗

9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。

画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。

中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。”

通过“换脸”伪造不雅照

深圳警方打掉一个犯罪团伙

AI换脸、换声等技术 一旦被不法分子利用 还会成为敲诈勒索的工具 此类案例在各地已经发生了很多起 前不久 深圳警方打掉一个犯罪团伙 👇👇👇上下滑动阅读

前不久,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,点开一看竟然是他和一名陌生女子在酒店房间内的不雅照片。

当事人 吴先生:当时我收到一条彩信,里面是我的一张裸照。他当时威胁我,在几点之前要跟他联系、转钱,我当时一想不对劲,就报警了。

深圳警方接到报案后,立即对吴先生提供的线索进行侦查。通过梳理报案记录,警方发现全市有同样遭遇的不止吴先生一人,犯罪嫌疑人的敲诈勒索方式都如出一辙。

随着调查的深入,警方发现这是一个以王某为首的犯罪团伙,团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话敲诈勒索。在掌握大量线索后,深圳警方展开统一收网行动,成功抓获以王某为首的10多名犯罪嫌疑人。

在犯罪嫌疑人的电脑里,警方发现了大量经过合成换脸后的不雅照片。

深圳市公安局坪山分局民警 张威:从嫌疑人电脑里面提取的相关证据,这些图片是嫌疑人从各种渠道收集的被害人图片信息,然后进行合成处理用来敲诈被害人。

目前,王某等人已被检察机关提起公诉。案件正在进一步审理当中。

AI换脸的原理是什么?

如何一眼识别换脸破绽?

据了解 目前针对“AI换脸”技术 实施各类侵犯个人信息的 行为时有发生 在灰色领域甚至违法犯罪领域被滥用 AI换脸的原理是什么? 如何一眼识别换脸破绽,加以防范?

张博向记者详细展示了AI换脸过程和原理,“只需要输入一张正面静态图片,借助人工智能技术,便可以实时‘移花接木’。”

他进一步介绍,AI换脸的3大步骤原理:面部识别追踪、面部特征提取、面部变化融合。“整体的原理是通过计算机深度学习,精准识别人脸图像,然后提取眼睛,鼻子,嘴巴等重要的面部特征,然后把这些特征与目标人脸图像进行匹配,替换和融合。”

如今“AI 换脸”技术已经比较成熟的 甚至能够实现视频通话的实时换脸 虽然单凭肉眼很难分辨 不过张博指出 只要稍加留心 “AI换脸”还是有明显破绽 “马脚”就在面部轮廓和光线 识别“AI换脸”,重点关注哪些地方? “如果接收到视频信息, 视频通话,要仔细观察对方的面部轮廓是否存在异常的模糊,光线是否正常 ”张博说道,“如果有必要的话,可以要求对方快速大幅度地抬头、点头,转头,然后来仔细观察这个过程当中,面部轮廓是否有异常模糊。” 现实生活中我们如何辨别AI换脸变声? 中国移动信息安全与管理运行中心副经理王晓
0 阅读:52