在白人男性中效果良好,而在黑人女性中则问题百出:这是一个使用人工智能进行人脸识别的典型问题。
在她的演讲中,乔伊(Joy Boulamwini)展示了一个自我实验的结果:一款人脸识别软件无法识别她的脸,只有当她戴上白色面具时才能识别出脸部,且识别效果并不理想。
2018年,乔伊调查了IBM和Microsoft推出的人脸识别软件。结果发现:这些软件虽然都能正常读取脸部数据,但在识别非白人及识别女性时,错误率明显更高。在白人男性中,错误率约为1%,而在黑人女性中则高达35%。
开发团队多样性不足
这一问题并非源自技术水平低下,而是与开发该技术者的个人倾向有关。因为开发人工智能的人中,白人男性占据绝大多数。例如,在2021年,德国IT行业女性就业比例仅为18%。
尽管在这个领域有25%的女学生,但年轻的职业女程序员经常处于男性主导的工作环境中,这令她们感到不悦,部分人选择放弃这个职业。此外,移民也较难达到IT行业从业门槛。这种情况在其他国家也是如此。
鉴于这一问题,IBM已经停止了人脸识别程序的开发,微软则大幅削减了其相关业务。
为了减少AI偏见,我们应致力于从多种角度提高开发团队的多样性,包括性别、种族和文化背景等。一个多样化的团队可以从多种视角来审视问题,从而降低潜在的偏见风险。此外,通过吸引来自不同背景的人才,我们可以为AI开发注入更丰富的创意和观点。
数据源头的缺陷
根据凯普林格的观点,人工智能偏见的另一个原因是用于训练它们的数据集存在缺陷。
在数据集中,白人男性的面部数量过多。因此,AI也会更擅长识别这些面孔。
如果用历史数据训练AI,那么AI就会继承这些历史数据中的缺陷。例如,一个负责审查求职申请的算法,将使用过去成功申请的数据进行训练。这样,它就会了解公司重视的是什么。然而,在过去,几乎每个行业都更倾向于雇佣男性。对于AI来说,男性就会被认为是更好的候选人。而移民,由于在过去受到不公平对待,会被视为“较差”的申请者,从而继续受到不利待遇。
通过更好的数据集和更多样化的开发团队,我们可以创建更中立的AI。然而,凯普林格认为,一个完全无偏见的AI是不可能实现的。因为人类总是会有偏见,AI也终将从人类那里学到他们的偏见。
因此,凯普林格表示,我们不能盲目地信任人工智能。人们在与AI互动时要保持谨慎,并在可能的情况下检查AI的结果。
同时,开发者有责任去关注并修正这些不公,让AI成为我们历史中一段美好、公正和包容的篇章。