AI假新闻,霸占我的家族群

新周刊 2025-01-22 11:11:01

AI假新闻,收割眼泪和流量

人们再一次被AI假新闻骗走了眼泪。

1月7日上午9时5分,西藏日喀则市定日县发生6.8级地震。由于震级和海拔较高,这次地震灾害在互联网上得到了各方的持续关注。在众多讲述灾情和救灾情况的文字信息之中,一段视频抓住了众人的眼球:一个头戴彩色帽子、身穿同款毛衣的小孩被压在倒塌的建筑物下,脸和身子上布满了灰尘。这样一个具有强烈对比和冲击性的画面,很难不让人动容。

“这个孩子让我哭了一天。”“这个孩子现在还好吗?有没有人知道?”……视频中受灾儿童的情况,牵动着无数网友的心。

多家自媒体发布这段视频时,带上了日喀则地震的信息以及“祈祷震区朋友们平安无事”等语句。这让观众下意识地认为,视频中的儿童正是日喀则地震的受灾者。人们纷纷转发、关注,为受灾儿童祈祷。

戴彩色帽子的孩子被压在倒塌的建筑物下这段视频被大量转发。(图/社交媒体截图)

但实际上,早在2024年11月,这一短视频便已经在互联网出现,其创作者声明,它是AI生成的内容。有记者采访了这名创作者,对方称,当时创作视频的初衷是为了反映战争背景下民众饱受摧残的生存状况,而非为了造谣。

只不过,经过视频和文字的移花接木,这一短视频与毫不相关的日喀则地震产生了关联性。发布者们用预制素材蹭上了灾难的热度,收割了感动,也获得了流量。

如果说AI生成的废墟下的儿童画面被带上地震信息是一种肆意拼贴,那么由AI根据现有新闻素材生成的图片、视频内容,则是另一种“无中生有”。

当地时间2024年11月7日起,美国加利福尼亚州洛杉矶多地连续发生山火,火势不断蔓延。一段视频在社交媒体上广为流传,视频中,洛杉矶著名地标——“好莱坞”(HOLLYWOOD)广告牌正被山火吞噬。

网传的“好莱坞”广告牌被吞噬的AI照片中,多了一个字母O。(图/社交平台截图)

事实上,据法新社驻洛杉矶记者在现场确认,“好莱坞”未见损毁;全球火情监测系统FIRMS的地图上,也未显示该地附近有火情发生。网络上所流传的“好莱坞”燃烧的视频,都是由AI生成的。

AI技术污染新闻内容的现象,早在几年前就显露苗头。“甘肃一火车撞上修路工人,致9人死亡 ”“五角大楼发生爆炸”“广东省五华县华阳镇一70多岁老人被殴打致昏迷,其孙子为此跳河自杀,打人者一审被判九年十个月”……如果留意,会发现这些肉眼难辨的AI假新闻经常集中于城乡发展、阶层矛盾、性别对立、国际局势等备受关注的议题。

有网友输入“特朗普在被捕过程中摔倒_新闻报道画面”字样,AI便生成了这一合成画面。(图/推特)

面对这些虚假新闻图片和视频带来的强烈冲击,人们的第一反应是在情感上给予反馈。在或愤怒、或震惊、或悲伤时,人们往往忘记了追问那个最基本的问题:这一切都是真的吗?

流量至上时代,虚假信息泛滥已经成为世界性难题。“后真相”(post-truth)一词曾当选《牛津英语词典》的“2016年度英文词汇”,它表明,在舆论面前,事实不再是第一顺位,个人的情感和态度才是最大的影响因子。

情感驱动着人们对这些具有高度冲击性的内容做出直接反应,而非看完之后进行冷静思考。在虚假新闻中,受困于废墟的儿童有六根手指,“好莱坞”广告牌多了一个“O”,而这些明显不符合常理的错漏,并未引起人们的关注。

(图/《曼克》)

谁在制造AI假新闻?

从“眼见为实,耳听为虚”到“眼见也未必为实”,从“有图有真相”到“有图也未必有真相”,AI技术屡屡试探新闻真实的边界。那么,究竟是谁在制造AI假新闻?他们为何要制造假新闻?

在AI技术的加持下,虚假新闻的制假成本和所需的技术条件,并不像人们所想象的那么高。

2023年7月4日,浙江绍兴警方抓获了一个利用ChatGPT制作虚假新闻的团伙。这个团伙中,有一个此前从未接触过电脑技术、仅有初中学历的成员。她利用ChatGPT技术,学会了自动生成“脚本”和相关视频素材,最后一键生成有音乐、字幕的虚假视频,需时最短仅1分钟。

根据警方介绍,该团队首先在网络上收集热门话题,通过AI软件生成视频,再通过视频号发布。“有阅读量就会有收益。”在被警方问及发布虚假内容能否牟利时,其中一人如此回答道。

只需等待数秒,AI软件便可以根据指令输出相应的文字、图片和视频。(图/豆包)

而在2024年4月披露的一则案件中,涉案人员使用一款叫“翠绿笔墨”的写稿软件,先从大量社会热点新闻中抓取用户关心的内容,再通过同义词转换、段落颠倒等方式,自动生成文稿,每日产出的文章数量可达19万篇。这些拼凑而成的文章,流向6000多个自媒体账号,最终触达用户。用户对新闻事件的关注,转化为平台给予的阅读量奖励。

AI虚假新闻的牟利方式,简而言之就是“降本增效”。低廉的制作成本,使得虚假新闻的盈利空间相应扩大。

(图/《黑镜》第三季)

如果要验证一条新闻的真实性,须进行事实核查——一般需要经过评估信源、上报可疑内容、厘清核查点、追溯虚假信息的传播路径等过程。但要制造一条仿真度极高的AI假新闻、一张AI假图片,只需借助AI技术,输入指令,等待几秒。

受众的需求也让AI合成的假新闻有了持续产出的动力。年轻一代或许会通过多方途径查验某条信息的真实性,而家族群里的长辈不一定有分辨信息的意识。对于在传统媒体环境下成长的长辈,他们会默认媒体所发布的内容是可信的。更何况,在他们的认知中,视频不可能造假,而是对事件的真实记录。

(图/《聚焦》)

因此,那些煽情的虚假新闻视频总有自己的受众。热衷国际政治的,会被AI特朗普的虚假发言煽动;关心身体健康的,会点进AI张文宏卖威化蛋白棒的链接地址并激情下单;即便没有什么爱好的人,也会把报道天灾人祸、人间真情的各种真假难辨的信息,一股脑地发到家族群里并@所有群成员观看。

结果就是,真相还在穿鞋,而AI假新闻已经坐上标题党的快车,走出了家门。

我们的情感,也被预制了吗?

在AI能轻松生成逼真内容的时代,人们的感动和震撼,时常被预制的虚假新闻占据。这种情况下,很难保证人类情感的含金量可以和过去同日而语。

哲学家本雅明曾经敏锐地捕捉“震惊”这一现代人特有的心理模式。他认为,陌生化的震惊和刺激,能够激发新的语境,最后引发人们的深度思考。本雅明以电影工业为例,批判电影工业不断复制震惊和惊奇,沦为大众寻求刺激的消遣。

而到了人工智能时代,媒介所带来的冲击非但没有偃旗息鼓,反而愈演愈烈。批量制造的AI假新闻更是如此。

(图/纪录片《真相背后:虚假新闻与信息的代价》)

AI根据人类投喂的素材,创造出适配互联网风向和传播趋势的内容。它足够聪明,能迅速掌握观众会被什么样的苦情情节打动,又会被什么样的热点事件牵引情绪。观众的所有反应,早已被AI虚假新闻提前预设。

对于人类来说,关注当下发生的新闻,关心远方的人和事,本是人性使然。只是,当我们的悲悯和感动都来自预制的AI生成内容,它们是否在一定程度上稀释了我们的情感?在难以辨明真伪的内容面前,我们甚至不能确定,是不是真的有一个孩子身处苦难,是不是真的有人正在等待帮助。

(图/纪录片《真相背后:虚假新闻与信息的代价》)

当我们被所见所闻的东西深深触动,却被告知,它们可能都是虚假的产物;那么,就像那个著名的“狼来了”的故事,下一次,因为不知真假,我们似乎不能保证自己还会对远方的哭声保持悲悯之心。最后的结果,可能就是人们逐渐变得麻木、冷漠。而这,或许是AI合成的虚假新闻最令人后怕的一点。

参考资料

[1] 中国新闻网.绍兴警方侦破利用ChatGPT技术团伙制作虚假视频案

[2] 极目新闻.用AI伪造“新闻”牟利日产19万篇,一批造谣者被抓

编辑 谭山山

校对 遇见

运营 Hallucinogens

0 阅读:17
新周刊

新周刊

一本杂志和一个时代的体温。