人工智能时代的伦理:人工智能对人类和道德的影响

智能真的很好说 2024-04-24 09:57:46
生成式 AI 和 LLM 的用例不断扩大,但它们也有被滥用的可能性,引发了关于 AI 对人类和道德影响的基本问题。

编者按:以下是为 DZone 的 2024 年趋势报告《企业 AI:知识工程的新兴格局》撰写并发表在其中的文章。

在过去的几年里,人工智能 (AI),尤其是生成式 AI,已经渗透到所有领域,变得越来越智能、更快,并且无处不在。生成式 AI 可以带来竞争优势,支撑 AI 和不断扩展的用例的大型语言模型 (LLM) 的发展速度比历史上任何技术都快。但人工智能也有被滥用的可能性,引发了关于其对人类和道德影响的基本问题:

如何对其进行监管,以确保在促进创新的同时保护社会免受设计不良或误用的风险?什么是好的用途?人工智能应该如何设计和部署?

随着人工智能的影响不断扩大,这些问题需要立即得到答案。本文提供了一些思考和一些前进建议。

你能调节马什么时候已经栓住了吗?

人工智能不是明天的问题——它已经存在了;这匹马已经很好地固定了。OpenAI 的 ChatGPT 创下了用户群增长最快的记录,在前两个月内获得了 1 亿月活跃用户。据 Open AI 称,“如今,数以百万计的开发人员和超过 92% 的财富 500 强企业正在基于我们的产品进行构建。

许多初创公司和企业将技术用于公益事业,例如帮助口吃的人更清楚地说话、检测地雷和设计个性化医疗。然而,人工智能也可能被用于造成伤害的方式,例如错误识别嫌疑人、诽谤记者、侵犯艺术版权以及开发可以窃取数百万美元的深度伪造。此外,LLM 中为 AI 提供支持的数据集可能带有性别或种族偏见,或者包含非法图像。因此,人工智能法规必须检查现有问题并预测未来的问题,这些问题将随着 LLM 在各个行业提供新的用例而发展,其中许多是我们从未想过的。后者并非易事。今天的人工智能创造了全新的商机和经济优势,使企业能够抵制变革。

但正如欧洲的 GDPR 法规所表明的那样,改变是可能的,特别是因为不合规会导致罚款与企业的收入成正比,具体取决于意图、损害缓解以及与当局合作等因素。

试图监管人工智能

在治理方面,欧洲通过了《人工智能法案》,该法案旨在根据其潜在风险和影响程度,保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响。在北美,《国防生产法》“将要求科技公司在使用大量计算能力训练人工智能模型时通知政府。总统行政命令 (EO) 要求包括 NIST 在内的多个机构制定指导方针并采取其他行动,以推进人工智能的安全、可靠和值得信赖的开发和使用。

去年秋天,英国主办了首届全球人工智能安全峰会,并正在建立一个人工智能治理框架,该框架包含人工智能的变革性优势,同时能够应对新出现的风险。印度尚未实施具体的人工智能法规。

我们不知道这些法规在实践中意味着什么,因为它们尚未在法律上得到检验。然而,针对生成式人工智能公司的诉讼正在进行中。目前有针对 Microsoft、GitHub 和 OpenAI 的民事诉讼,声称“通过在公共 GitHub 存储库上训练他们的 AI 系统......[他们]侵犯了大量创作者的合法权利,这些创作者在GitHub上以某些开源许可证发布代码。作家莎拉·西尔弗曼 (Sarah Silverman) 对 Meta 和 OpenAI 涉嫌侵犯版权提出了类似的索赔。

这与立法要求从设计阶段开始负责任的人工智能,对创造违反法规的人工智能的公司进行经济和法律处罚有很大不同。在法规得到足够的考验以抑制不道德人工智能的创造和使用(例如深度伪造和种族偏见)之前,我预测很多大卫与歌利亚的案件都有责任,这些案件的责任在于受到伤害的个人,与科技巨头对抗并在法庭上花费数年时间。

人工智能实践中的挑战

生成式人工智能可用于比竞争对手更好、更快地工作,但它可能会违反 GDPR 等法规、共享公司机密并破坏客户机密。大多数人不明白 ChatGPT 会保留用户输入数据以进一步训练自己。因此,机密数据和竞争秘密不再是私密的,而可以通过OpenAI的算法来获取。多项研究表明,员工将敏感数据(包括个人身份信息 (PII))上传到 OpenAI 的 ChatGPT 平台。仅在 2023 年 3 月至 4 月期间,员工上传到 ChatGPT 的敏感数据量就增加了 60%。

Salesforce 对 14 个国家/地区的 14,000 多名全球员工进行了调查,发现 28% 的员工在工作中使用生成式 AI,超过一半的员工未经雇主正式批准。2023 年,三星半导体部门的工程师使用 ChatGPT 输入机密数据,例如新程序的源代码和内部会议记录。作为回应,三星正在开发自己的 AI 模型供内部使用,并将员工的使用限制为 1024 字节的提示。

缺乏追索权

还有一个问题是,人工智能如何被用作企业服务产品的一部分,表面上是为了提高效率和减少手动任务。例如,企业中的决策人工智能可以在招聘中选择一名潜在员工而不是另一名潜在员工,或者在住房软件中预测租户支付租金的能力。

公司不能简单地将不良结果归咎于人工智能。必须有一个人类监督者来解决使用人工智能产生的任何潜在或已识别的问题。他们还必须为用户创建有效的渠道来报告问题,并就聊天机器人等人工智能做出的决策提供反馈。明确的政策和培训也是必要的,以使员工对负责任的人工智能使用负责,并确定不道德行为的后果。

人工智能创新与监管

各国政府一直在努力平衡对人工智能的监管与技术进步。你越深入研究它,就越需要人类监督者。

计划外报废

有很多关于人工智能使任务更容易和减少工作痛点的讨论,但是电话推销员、数据文员、撰稿人等会发现他们的角色已经过时了,因为人工智能可以更快更好地完成任务,会发生什么?

我不相信像全民基本收入这样的计划会为那些工作被人工智能取代的人提供足够的经济保障。也不是所有的流离失所者都想过渡到高级护理或儿童保育等身体角色。我们需要把重点放在提高工人的技能和再培训上,以确保他们拥有必要的技能,以继续从事他们选择的有意义的工作。

主权与竞争

负责大多数工具的大公司的主导地位存在普遍挑战,尤其是在小公司和政府在其模型和开源人工智能之上构建产品的情况下。如果开源模型成为专有模型或提高价格,使初创公司无法再负担创建商业产品的费用,从而阻止大规模创新,该怎么办?这是非常有问题的,因为这意味着小公司无法在经济市场上公平竞争。

还有主权。大多数 LLM 来自美国,这意味着生成的数据更有可能嵌入北美的观点。这种地理上的偏差造成了一个真正的风险,即北美的观点、偏见和文化细微差别将严重影响用户对世界的理解。这增加了算法偏见、文化不敏感的机会,并最终增加了用户在主流数据环境之外寻求信息或完成任务的不准确性。特别是国际公司有机会确保LLM具有具有全球视野的多样化数据表示。开源协作是促进这一点的有效方式,并且已经具备了必要的框架。

在基础设施层面上,创建自定义 LLM 并非易事——它的成本很高,尤其是当您考虑到人才、硬件、基础设施和计算能力的成本时。GPU 为 AI 工作负载和训练提供动力,但自 COVID-19 大流行以来,它们一直供不应求,预计 2024 年的 GPU 已经售罄。一些国家正在购买 GPU;英国计划斥资1.263亿美元购买AI芯片。这将为不太繁荣的国家留下更少的资源。

有意识地促进发达国家和发展中国家之间的创新对于促进知识共享、更公平的资源分配和共同发展努力至关重要。它还需要有针对性地为当地基础设施提供资金和支持。

问责制的真正含义是什么?

公司对不道德的人工智能(无论是通过设计、部署还是无意滥用)的责任是复杂的,特别是因为我们尚未看到人工智能法规在实践中的最终结果。问责制包括检测和衡量不道德人工智能的影响,并确定适当的处罚措施。金融服务和医疗保健等行业的现有法规可能有助于建立参数,但每个行业都需要预测和应对其独特的挑战。例如,世界卫生组织建议制定责任规则,因此在医疗保健领域受到法学硕士伤害的用户将获得充分的补偿或有其他形式的补救措施,以减轻举证责任,从而确保公平赔偿。

我们才刚刚开始,致力于将道德人工智能作为其最早用例的公司将能够更轻松、更快地适应未来几个月和几年内出台的任何法规。

未来之路

在实践中,合乎道德的人工智能涉及意向性、对设计审计的持续承诺,以及愿意研究与人工智能相关的风险的环境。将这一承诺贯穿整个组织的公司将取得成功。

工作场所中的主动道德 AI

在过去的几年里,像X和谷歌这样的公司已经削减了他们负责任的人工智能团队。专门的团队或角色可以协助进行主动的风险管理、建立透明的文化和员工培训。然而,人工智能伦理学家或负责任的人工智能团队只有在公司层次结构中占有一席之地,可以与业务经理、开发人员和最高管理层一起推动和影响底线业务决策时,他们才能发挥作用。否则,这个角色只是一个公关旋转。

还有一种诱惑是,雇用一个敬业的人或团队会使道德成为别人的问题。将道德规范分配给单个人或团队可能会产生一种虚假的安全感,并忽视整个组织更广泛的责任,特别是如果它以牺牲从最早的设计阶段嵌入负责任的人工智能并将其视为公司品牌的宝贵资产为代价。

不断发展的政策和实践

制定人工智能政策很有用,但需要嵌入到公司的实践中,而不是简单地分享一些东西,让投资者满意。归根结底,想要实践负责任、合乎道德的人工智能的公司需要将这一承诺嵌入到他们的DNA中,就像安全第一的方法一样。这意味着积极、有效的 AI 政策是合适的,与创新保持一致,并在整个工作场所传播责任。

例如,像 Microsoft 这样的公司强调了道德 AI 应该是什么样子的关键因素,包括:

公平可靠性和安全性隐私和安全包容透明度问 责选择合乎道德的工具

公司还可以通过承诺使用专注于道德人工智能的工具和服务来抵御风雨。一些例子包括:

基础模型研究中心的研究人员开发了基础模型透明度指数,以评估基础模型开发人员的透明度。Fair Trained 为获得其使用的训练数据同意的生成式 AI 公司提供认证。daios 帮助开发人员使用用户控制的道德价值观来微调 LLM,在用户、数据和公司之间创建反馈循环。去年,Aligned AI 使 AI 更加“人性化”,防止误以统化。它是第一个通过教人工智能在类似人类的概念中“思考”来超越一个名为CoinRun的关键基准测试。结论

人工智能很复杂,最终,本文提出的问题与答案一样多。当技术能力、用例和影响不断发展时,持续的讨论和对道德的可操作承诺至关重要。一家在早期迭代中致力于道德 AI 的公司可以抵御即将到来的法规和对 AI 滥用的可能处罚。但最重要的是,致力于合乎道德的人工智能可以保护公司的身份和竞争优势。

资源:

"Artists take new shot at Stability, Midjourney in updated copyright lawsuit" by Blake Brittain, 2023GitHub Copilot litigation by Matthew Butterick, 2022"ChatGPT sets record for fastest-growing user base - analyst note" by Krystal Hu, 2023"UK to spend £100m in global race to produce AI chips" by Anna Isaac, 2023"Nvidia's Best AI Chips Sold Out Until 2024, Says Leading Cloud GPU Provider" by Tae Kim, 2023"Samsung workers made a major error by using ChatGPT" by Lewis Maddison, 2023"Biden Administration to implement new AI regulations on tech companies" by Duncan Riley, 2024"More than Half of Generative AI Adopters Use Unapproved Tools at Work," Salesforce, 2023"Nvidia's AI Chip Supplies Will Be Insufficient This Year, Foxconn’s Chairman Says" by Shi Yi, 2024"Sarah Silverman Sues OpenAI and Meta Over Copyright Infringement" by Zachary Small, 2023"Hackers Steal $25 Million by Deepfaking Finance Boss" by Victor Tangermann, 2024"Identifying and Eliminating CSAM in Generative ML Training Data and Models" by David Thiel, 2023"Implicit Bias in Large Language Models: Experimental Proof and Implications for Education" by Melissa Warr, Nicole Jakubczyk Oster, and Roger Isaac, 2023

原文标题:Ethics in the Age of AI: The Human and Moral Impact of AI

原文链接:https://dzone.com/articles/ethical-ai

作者:Cate Lawrence

编译:LCR

0 阅读:0

智能真的很好说

简介:感谢大家的关注