记者最近采访了中央情报局人工智能总监拉克希米·拉曼(Lakshmi Raman)。我们谈到了她成为局长的道路,以及中情局对人工智能的使用,以及在接受新技术和负责任地部署新技术之间需要取得的平衡。拉曼在情报部门工作很久了。在获得伊利诺伊大学香槟分校的学士学位和芝加哥大学的计算机科学硕士学位后,她于2002年加入中央情报局,担任软件开发人员。几年后,她进入该机构的管理层,最终领导中情局的整体企业数据科学工作。拉曼说,鉴于情报领域历来以男性为主,她很幸运能有女性榜样和前任作为CIA的资源。“我仍然可以向一些人寻求帮助,向他们征求建议,我还可以接触一些人,了解下一阶段的领导是什么样子的。”她说,“我认为,每个女性在驾驭自己的职业生涯时,都必须驾驭一些事情。”
作为情报工具的人工智能
作为主管,Raman负责协调、整合和推动整个CIA的人工智能活动。“我们认为人工智能是为了支持我们的使命。”她说,“人类和机器一起站在人工智能应用的最前沿。”
人工智能对中情局来说并不新鲜。拉曼说,自2000年左右以来,该机构一直在探索数据科学和人工智能的应用,特别是在自然语言处理(即分析文本)、计算机视觉(分析图像)和视频分析领域。她补充说,中情局试图跟上新的趋势,比如生成式人工智能,并制定了一个由工业界和学术界共同提供信息的路线图。“当我们考虑到我们必须在机构内使用大量数据时,内容分类是生成式人工智能可以发挥作用的领域。”拉曼说,“我们正在研究诸如搜索和发现辅助、创意辅助之类的东西,并帮助我们产生反驳意见,以帮助消除我们可能存在的分析偏见。”美国情报界有一种紧迫感,即部署任何可能帮助中央情报局对抗世界各地日益紧张的地缘政治局势的工具,从加沙战争引发的恐怖威胁到外国行动者(如某国、俄罗斯)发起的虚假信息运动。去年,专注于人工智能在国家安全领域的高级咨询机构“特别竞争研究项目”(Special Competitive Studies Project)为国内情报部门设定了一个两年的时间表,以超越实验和有限的试点项目,大规模采用生成式人工智能。CIA开发的生成式人工智能工具Osiris有点像OpenAI的ChatGPT,但它是为情报任务定制的。它总结了数据——目前只有非机密的、公开的或商业上可用的数据——让分析师用简单的英语提出后续问题,进行更深入的挖掘。Osiris现在被成千上万的分析人员使用,不仅在中央情报局内部,而且遍及美国18个情报机构。拉曼不愿透露它是内部开发的还是使用了第三方公司的技术,但他表示,中情局与知名供应商建立了合作关系。拉曼说:“我们确实利用了商业服务。”她补充说,中情局也在使用人工智能工具来完成翻译等任务,并在非工作时间提醒分析师注意潜在的重要进展。“我们需要能够与私营企业密切合作,不仅能帮助我们提供你听说过的更大的服务和解决方案,还能帮助我们提供你可能还没有想到的非传统供应商提供的更小众的服务。”
一项令人担忧的技术
我们有充分的理由怀疑和担心中情局对人工智能的使用。2022年2月,参议员罗恩·怀登(俄勒冈州民主党人)和马丁·海因里希(新墨西哥州民主党人)在一封公开信中透露,尽管中央情报局通常被禁止调查美国人和美国企业,但它有一个秘密的、未公开的数据库,其中包括收集的有关美国公民的信息。去年,美国国家情报总监办公室的一份报告显示,包括中央情报局在内的美国情报机构,在几乎没有监管的情况下,从LexisNexis和Sayari Analytics等数据经纪人那里购买美国人的数据。如果中央情报局使用人工智能来仔细研究这些数据,许多美国人肯定会反对。这显然是对公民自由的侵犯,而且由于人工智能的局限性,可能会导致严重不公正的结果。几项研究表明,像Geolitica这样的公司的预测犯罪算法很容易受到逮捕率的影响,而且往往不成比例地标记黑人社区。其他研究表明,面部识别对有色人种的误认率高于白人。除了偏见,即使是当今最好的人工智能也会产生幻觉,或者在回答问题时发明事实和数字。以微软的会议总结软件为例,它偶尔会引用不存在的人的话。可以想象,这在情报工作中可能会成为一个问题,因为准确性和可核查性是至关重要的。拉曼坚持认为,中情局不仅遵守所有美国法律,而且“遵循所有道德准则”,并“以减轻偏见的方式”使用人工智能。“我认为这是一种深思熟虑的(人工智能)方法,”她说。“我想说的是,我们正在采取的方法是,我们希望用户尽可能多地了解他们正在使用的人工智能系统。构建负责任的人工智能意味着我们需要所有利益相关者的参与,包括人工智能开发者、我们的隐私和公民自由办公室(等等)。”拉曼的观点是,不管AI系统的设计目的是什么,重要的是系统设计师要明确它可能存在不足的领域。在最近的一项研究中,北卡罗来纳州立大学的研究人员发现,包括面部识别和枪击检测算法在内的人工智能工具正在被不熟悉这些技术或其缺点的警察使用。在执法部门滥用人工智能的一个特别令人震惊的例子中,也许是出于无知,据报道,纽约警察局在监控照片没有结果时,曾经使用名人的照片、扭曲的图像和草图来生成嫌疑人的人脸识别匹配。“人工智能生成的任何输出都应该被用户清楚地理解,这显然意味着,要给人工智能生成的内容贴上标签,并清楚地解释人工智能系统是如何工作的。”拉曼说,“我们在该机构所做的一切,我们都遵守我们的法律要求,我们确保我们的用户、我们的合作伙伴和我们的利益相关者了解管理我们人工智能系统使用的所有相关法律、法规和指导方针,我们遵守所有这些规则。”记者当然希望这是真的。