Q&A:获得公平的人工智能系统的最佳途径是什么?

智能真的很好说 2024-03-06 18:01:12

图片来源:Scott Graham/Unsplash

去年12月,欧盟通过了《人工智能法案》,这是第一部旨在规范人工智能技术的主要法律。该立法可能更早到来,但 ChatGPT 在 2022 年底的突然成功要求更新该法案。

然而,欧盟的法案没有提到公平性——公平性是衡量一个制度在多大程度上避免歧视的衡量标准。研究机器学习公平性的领域(人工智能的一个子领域)相对较新,因此明确的监管仍在发展中。

华盛顿大学信息学院助理教授迈克·特奥多雷斯库(Mike Teodorescu)在一篇新论文中提出,私营企业为更公平的机器学习系统制定标准将为政府监管提供信息。

这篇论文于2月15日由布鲁金斯学会(Brookings Institution)发表,是其“人工智能和新兴技术的经济学与监管”系列文章的一部分。

威斯康星大学新闻采访了特奥多雷斯库,讨论了这篇论文和机器学习公平性领域。

首先,您能解释一下什么是机器学习公平性吗?

Teodorescu:它本质上关注的是确保机器学习算法对所有类别的用户都是公平的。它结合了计算机科学、法律、哲学、信息系统和一些经济学。

例如,如果您尝试创建软件来自动化招聘面试,您可能会让一组 HR 人员面试许多具有不同背景和经验的候选人,并推荐一个二元结果——雇用或不雇用。

来自实际 HR 面试的数据可用于训练和测试机器学习模型。在此过程结束时,您将获得准确性,即模型正确的百分比。但是,这个百分比并不能反映算法在考虑某些子组时的表现。美国法律禁止基于受保护属性的歧视,包括性别、种族、年龄、退伍军人身份等。

举个例子,用最简单的术语来说,如果你计算了你想雇用的退伍军人的数量,那么算法应该独立于受保护的属性进行招聘。当然,随着你有更多的子群体的交叉点,这种情况变得更加复杂——你可能有种族、年龄、社会经济地位和性别。

从实际的角度来看,如果对数十个受保护属性的值有一个相等的系统,则不太可能同时满足所有这些值。我不认为我们有一个可推广的解决方案,我们还没有一种最佳方法来检查人工智能的公平性。

对于公众来说,了解机器学习的公平性有什么重要意义?

它有助于理解程序公平性,程序公平性着眼于用于做出决定的方法。用户可能想问:“我知道这个软件是否在使用机器学习来对我进行一些预测吗?如果是,它需要什么样的投入?我可以更正不正确的预测吗?有没有一种反馈机制,我可以通过它来挑战它?

这一原则实际上存在于欧洲和加利福尼亚的隐私法中,我们可以反对使用某些信息。如果应用机器学习算法来做出关于您的某些决定,那么这种透明度会很棒。也许有一个选项可以选择它使用哪些变量来向您展示某些广告。现在,我不确定我们是否会在不久的将来看到这种情况,但这是用户可能关心的事情。

是什么阻碍了公平标准被公司广泛采用?

我认为这是一个激励问题。从经济角度来看,公司希望尽快将产品推向市场。如果用户获得使用图像识别 AI 的应用,他们可能不会阅读服务条款。因此,他们可能不会花时间接受有关该工具是否公平的培训。许多用户甚至可能不知道工具可能是不公平的。

对于一家公司来说,开发此类系统的动机是将公司置于技术前沿,并发出质量信号——其人工智能工具比竞争对手更公平。但是,如果用户不知道这是一个问题,他们可能不会担心哪家公司的产品更公平。可能从现在开始的10年后,更多的人会关心公平性,就像他们关心网络安全和数据隐私一样。在我们遇到很多这样的违规行为之前,网络安全并不是一个普遍关注的问题。

原文标题:Q&A: What is the best route to fair AI systems?

原文链接:https://techxplore.com/news/2024-02-qa-route-fair-ai.html

原文作者:Stefan Milne, University of Washington

编译:LCR

0 阅读:0

智能真的很好说

简介:感谢大家的关注