这可能是互联网史上首个虚假消息:1984年,有人在Usenet上发帖称苏联接入互联网。这只是无伤大雅的愚人节恶作剧,但与今天朋友圈那些“哭笑不得”的虚假消息和造谣相去甚远。因为如今虚假信息危害大,且不择手段。2017年,误导性和恶意虚假网络内容不计其数,人类无法自己摆脱这一困境。相反,有可能靠机器拯救人类。
一家名为 AdVerif.ai 的初创公司设计了一种同名算法,可以把我们从黑暗中拯救出来。人工智能软件可以监测虚假新闻、裸露画面、恶意软件和其他有问题的内容。目前AdVerif.ai与一些不愿涉及虚假或攻击性新闻的美国和欧洲平台和广告网络公司合作,11月已推出测试版本。
AdVerif.ai创始人Or Levi表示,其侧重为公司而非普通用户提供产品。个体消费者可能不担心所点击消息的真实性,但广告商和网络平台却会因托管或宣传恶意内容而蒙受损失。如果广告商和平台改变自身服务,可断绝通过制造假新闻而获利的人的收入来源。Levi说:“这将是应对这类消息的一大进步。”
AdVerif.ai 是如何发现假新闻?
AdVerif.ai通过扫描察觉某些可疑迹象,例如标题与内容不匹配,或标题中大写字母过多。它还通过数千个合法或虚构的新闻数据库交叉检查新闻,该数据库每周更新一次。客户可以看到系统认定为可疑消息的报告,使用分数评估哪些可能是假新闻,哪些可能携带恶意软件或者含有客户要求系统注意的内容,比如裸露信息等。最终,Levi说他计划提高AdVerif.ai识别篡改图像及浏览器插件的能力。
如果AI可以测试AdVerif.ai的样本,能识别出洋葱(the Onion)是讽刺新闻(过去曾经愚弄过很多人); 它把Breitbart新闻归类为“不可靠的,右翼的,政治的,偏见的”,而认为Cosmopolitan杂志是“左翼的”;它可以辨别何时Twitter账户使用商标时链接与其描述的品牌无关。AdVerif.ai发现《自然新闻》( Natural News)上标题为《比特币是NSA推出的数字货币的证据》的新闻来自被列为黑名单的网站,它弹出其他被列入黑名单的网站且没有提供任何合法新闻的机构,因而确定它是假新闻。
尽管如此,仍有一些可疑信息逃之夭夭。例如,一个名为“行动新闻3网站”发表了一篇题为《美国橄榄球联盟球员被拍在更衣室焚烧美国国旗!》的帖子,这篇文章虽已证实为恶意伪造,但人工智能却未监测到。因此,为进一步完善系统,虚假新闻黑名单可手动逐篇更新。
当 AI 造假遇上 AI 打假
AdVerif.ai并非唯一一家抓住机会使用人工智能为在线公司提供事实真相的初创公司。除此之外,网络安全公司尤为迅速地在目录中添加机器定位和虚假新闻监测操作,并指出监测的许多方法类似于黑客攻击;Facebook正调整算法减少虚假新闻推送;同时,谷歌也与事实核查网站合作监测虚假信息,但核查结果仍参差不齐。此外,去年年底,人工智能社区志愿者发起了识别虚假新闻挑战赛,旨在鼓励开发打击恶意报告的工具。
Joostware(开发机器学习系统公司)的组织者和创立者德利普·拉奥(Delip Rao)表示,监测虚假新闻需要进行多个步骤操作才得以完成挑战。第一步是位置监测,即首先选取一则新闻,之后指出其他新闻网站对该类话题的评价。这样,人工事实核查员可依靠多则新闻验证其他新闻的真实性,同时减少了逐篇核查的时间。
虚假新闻挑战赛发布了供团队使用的数据集,共有50个团队提交数据。最终,思科网络安全部门的塔洛斯智能(Talos Intelligence)赢得此次挑战赛,其设计的算法的正确率高达80%以上——虽然塔洛斯智能未大获全胜,但结果仍鼓舞人心。下一个挑战可能是带文本(带有虚假新闻的思考模因)的图像,这种文本格式在社交媒体上广为使用,原因是算法难以破解和理解该格式。
拉奥表示:“我们想为事实核查员开发最好的工具,这样他们就可以像在血清中核查类固醇一般快速工作。”
即使人们能开发出有效打击虚假内容的系统,但这并非终极目的。人工智能系统已经能够创建虚假文本和极其逼真的图像和视频。(参考文章《太过分,AI不仅学会P图,现在让亲眼所见都不一定为真》)
或许正因如此,最近Gartner研究预测表明,到2022年,发达国家中的大多数人看到的信息将多是虚假信息而非真实信息。类似的报告表明,在此之前,虚假信息将超出人工智能监测能力范围,改变人们相信数字信息的方式。
AdVerif.ai以及其他公司更像开始了一场竞赛,而非虚假信息之战。竞赛中,虚假内容创作者开发自己的人工智能系统企图战胜 “正义”的人工智能。因此,我们不得不重新审视自己获取信息的方式。