我收到了一封来自一位法学教授同事的电子邮件,内容是关于他在与ChatGPT对话中获悉,2018年《华盛顿邮报》某文章指控我在去阿拉斯加的一次旅行中对法学院学生实施了性骚扰。
USA TODAY 视频截图
虚假指控,捏造事实
加州大学洛杉矶分校的尤金·沃洛克教授在研究时向ChatGPT提出这样的问题:“在美国法学院,教授性骚扰是否成为一个问题?请至少列举五个例子,并引用相关报刊文章。”
在ChatGPT的回应中包含这个例子:乔治城大学法律中心(2018)的乔纳森·特利教授曾被一名学生指控性骚扰,该学生声称特利在一次班级旅行中发表了不恰当的言论。引用:“起诉书指控特利在一次由法学院赞助的阿拉斯加之行中,向她说过‘性暗示性的言论’并‘试图以性方式触摸她’。”(《华盛顿邮报》,2018年3月21日)
然而,我从未在乔治城大学教过书。其次,《华盛顿邮报》没有这样的文章。最后,也是最重要的一点,在我35年的教学生涯中,从来没有以任何形式带学生出去旅行过,没有和学生一起去过阿拉斯加,更没有被指控性骚扰。
在回答沃洛克的问题时,ChatGPT 似乎还对另外两名法学教授捏造了毫无根据的指控。
我刚听到这个消息时,还感觉这个指控很滑稽。但经过一番思考后,我发现这是件非常危险的事情。
这些年来,由于我保守的法律观点,我已经预料到很多人可能因利益冲突而对我有所仇视,可能会直接伤害我和我的家人,或抓住一切小事试图让我被开除。在这个愤怒的时代,我必须面对的现实是,对我的过去和我的观点的恶意评论会源源不断地出现。
按眼前的发展趋势,AI将以指数级的速度扩大这种信息的滥用。ChatGPT大多数批评都出自有偏见或有党派倾向的人士给它输入的信息,而不是可靠的消息源,且ChatGPT没有任何求证的能力。
偏见导致AI缺陷
所以问题是,为什么人工智能系统会编造引用,引用一个不存在的文章,并参考一个假声明?答案可能是因为AI和AI算法的偏见和缺陷并不比编写它们的人少。最近的研究证实了ChatGPT的政治偏见,虽然此次造谣可能不是政治偏见的反映,但它确实显示了人工智能系统如何以一种不那么直接负责任的方式来制造虚假信息。
尽管存在这些问题,一些知名领导人还是推动扩大AI的使用范围。最令人不寒而栗的是微软创始人,亿万富翁比尔·盖茨(Bill Gates) ,他呼吁要利用AI来打击“数字误导”和“政治两极分化”。
在接受德国《商报》(Handelsblatt Disrupt)节目采访时,盖茨呼吁要充分发挥AI的作用,以阻止“各种阴谋论”,并防止某些观点“被数字渠道放大”。他补充说,AI可以通过检查“确认偏见”来对抗“政治两极分化”。
确认偏见是指人们以确认自己信念的方式搜索或解释信息的倾向。对于我和其他教授被造谣的事情是最明显的算法版“垃圾进,垃圾出”。然而,这些垃圾可以被AI无休止地复制成互联网上的虚拟洪水。
加州大学洛杉矶分校的沃洛克正在探索如何应对一种AI带来的风险,即如何解决AI驱动的诽谤问题。
AI的使用也引起了人们对言论自由的关注。我最近就测试了下“推特文件”功能,并且发现越来越多的证据表明,政府对网站和公民实施了全面的监察。
其中一个由政府资助的名为“全球虚假信息索引”(Global Disinformation Index)的项目,将沃洛克的网站“理性”(Reason)列入了黑名单,称其为十大最危险的虚假信息网站之一。但是,这个网站是供自由主义和保守派学者讨论法律案件和争议的一个广受赞誉的可靠信息来源。
面对反监察力量,一些民主党领导人推动算法系统的更广泛应用,以保护公民免受自己错误选择的影响,或者删除被视为“虚假信息”的观点。
在2021年,马萨诸塞州民主党参议员伊丽莎白·沃伦(Elizabeth Warren)认为,人们没有获得关于接种COVID-19疫苗的正确建议。相反,亚马逊搜索引擎为他们提供了“著名的虚假信息传播者”编写的书籍,为他们灌输了怀疑论者的观点。她呼吁使用启迪式算法来引导公民远离不良影响。
如果某些故事违背了政府的话语,监察力量将把这些故事列为“虚假信息”。
这项技术在造谣者和受害者之间创造了一个缓冲区。就像我所遭遇的那样,这些系统甚至可以通过传播一些造谣者列出来的非常虚假的信息来打击异己。