Siri和Alexa是AI的好例子,因为他们聆听人类的言语,识别单词,进行搜索,并将文本结果翻译成语音。最近收购了一家名为Dynamic Yield by McDonald's的人工智能公司 - 它分析了顾客的消费/饮食习惯并建议他们购买其他食品 - 已经将AI用于下一步。人工智能技术引发了重要问题,如个人隐私权以及机器能否做出公平决策。
监管有两个主要领域可以提供帮助。
1.防止滥用技术一个很好的例子是使用AI来阅读嘴唇。典型的人类唇读取器可以具有15%至50%的准确率。最近,在牛津大学创建的AI唇读项目达到了90%以上的准确率。
该技术非常适合听障人士使用,是帮助他们沟通的绝佳工具。但另一方面,同样也可能被滥用来监视人。
2.防止决策中的偏见算法学习从历史数据中预测模式。人类的决定本质上是有偏见的。本质上,训练算法以从不完美的数据中学习以做出反映人类偏见的决策。
算法开始不仅用于过滤数据,而且用于推荐,在某些情况下,还用于外包决策过程。例如,算法可能决定:
哪个人应该获得贷款
哪个被告应该获得保释金
如果一个人应该被雇用
如果我们将这套公寓租给一个人或不
可能发生下一次犯罪活动的地方
解决歧视的责任这些算法都使用现有数据来学习和预测,这意味着它只是加强了数据中的所有当前偏差。
例如,假设去年雇用的公司的所有人都是25到35岁年龄组的男性。您将这些数据提供给算法,算法开始了解公司招聘的理想年龄是男性25至35岁年龄组。这也意味着女性或老年人不会有很好的机会。如果雇主仅适用于雇用25至35岁年龄组男性候选人的规则,那就是非法歧视。但是,如果同一雇主将数据提供给算法并且算法学会歧视女性或35岁以上的人,那么谁应该对这种歧视负责?
提出新法律国会正在提出一项名为“算法问责法案”的新法案,并试图通过迫使大公司审计其机器学习算法驱动的系统(如面部识别或广告定位算法)来解决(第二)偏见。该法针对的是收入超过5000万美元并拥有超过100万人口数据的大公司。
关键是这些公司要审查他们对影响消费者合法权利的算法的使用,例如预测消费者行为并涉及大量敏感数据。如果此类审计提出歧视证据,公司必须及时处理。
摘要这些都是正确方向的步骤。这可能会导致创建“算法合规办公室”,并可能成为现有合规部门的一部分,并将由技术和法律人员管理和审查调查结果。首席风险官或首席合规官可能会采取更强有力的角色来遵守即将出台的法律。