卡内基梅隆大学研究人工智能更好为人类提供公平的方法

若希看留学 2024-06-13 12:42:52

来自卡内基梅隆大学(Carnegie Mellon University)和史蒂文斯理工学院(Stevens Institute of Technology)的研究人员近期通过论文展示了一种人工智能决策公平影响的新方法。他们借鉴了被称为社会福利优化的成熟传统,这种方法旨在通过关注对个人的整体利益和危害来使决策更加公平。这种方法可用于评估人工智能公平性的行业标准评估工具,该工具关注受保护群体的批准率。

卡内基梅隆大学泰珀商学院(Tepper School of Business)运筹学教授John Hooker和史蒂文斯理工学院泰珀商学院(Tepper School)商业伦理教学副教授Derek Leben是这项研究的共同作者。John Hooker教授于5月29日在瑞典乌普萨拉举行的约束编程、人工智能和运筹学整合国际会议(CPAIOR)上发表了这篇论文。他认为,在评估公平性时,人工智能试图确保公平对待在经济水平、种族、民族背景、性别和其他类别上存在差异的群体。

研究人员通过论文,提出假想人工智能系统决定谁能获得抵押贷款或谁能获得工作面试的情况。传统的公平方法可能只能确保不同群体中相同比例的人获得批准。他们提出,如果被拒绝抵押贷款对弱势群体的人造成的负面影响远远大于对优势群体的人造成的负面影响,通过采用社会福利优化方法,人工智能系统可以做出对每个人,尤其是弱势群体都能带来更好结果的决策。

这项研究的重点是“阿尔法公平性”(alpha fairness),这是一种在公平与为每个人争取最大利益之间寻求平衡的方法。“阿尔法公平性”可以根据情况进行调整,在公平和效率之间取得或多或少的平衡。

John Hooker和Derek Leben展示了如何利用社会福利优化来比较目前人工智能中使用的不同群体公平性评估。通过这种方法,我们可以了解在不同情况下应用不同群体公平性工具的好处,还将这些群体公平性评估工具与经济学和工程学中使用的更广泛的公平——效率标准联系起来。

研究结果表明,社会福利优化可以阐明如何在人工智能中实现群体公平这一讨论激烈的问题,同时,这项研究对人工智能系统开发者和政策制定者都很重要。开发人员可以通过采用更广泛的公平方法和了解公平措施的局限性,创建更公平、更有效的人工智能模型,还强调了在人工智能开发中考虑社会公正的重要性,确保技术促进社会不同群体之间的公平,该论文发表于《CPAIOR 2024论文集》。

0 阅读:0
若希看留学

若希看留学

感谢大家的关注