周一,ChatGPT 制造商 OpenAI 详细介绍了其在即将到来的 2024 年选举期间防止滥用其 AI 技术的计划,承诺 AI 生成内容的透明度并加强对可靠投票信息的访问。
这家人工智能开发商表示,它正在研究一种方法,包括政策执行、与合作伙伴的合作以及开发旨在对人工智能生成的媒体进行分类的新工具。
AI 图像生成技术现在可以轻松创建破坏生活的深度伪造OpenAI 在其博客文章中写道:“当我们为 2024 年世界上最大的民主国家的选举做准备时,我们的方法是通过提升准确的投票信息、执行可衡量的政策和提高透明度来继续我们的平台安全工作。”保护选举的完整性需要民主进程各个角落的合作,我们希望确保我们的技术不会以可能破坏这一进程的方式使用。”
OpenAI 提出的举措包括通过深度伪造或模仿候选人的机器人等方式防止滥用,完善使用政策,以及为公众启动报告系统以标记潜在的滥用行为。例如,OpenAI 的图像生成工具 DALL-E 3 包括内置过滤器,可拒绝创建真实人物(包括政治家)图像的请求。“多年来,我们一直在迭代工具,以提高事实准确性,减少偏见,并拒绝某些请求,”该公司表示。
OpenAI 表示,它会定期更新其 ChatGPT 及其 API 产品的使用政策,以防止滥用,尤其是在选举背景下。该组织已经对使用其技术进行政治竞选和游说实施了限制,直到它更好地了解个性化说服的潜力。此外,OpenAI 禁止创建冒充真实个人或机构的聊天机器人,也不允许开发可能阻止人们“参与民主进程”的应用程序。用户可以举报可能违反规则的 GPT。
OpenAI 声称正在积极制定详细的策略,以保护其技术不被滥用。根据他们的声明,这包括对新系统进行红队以预测挑战,与用户和合作伙伴互动以获得反馈,以及实施强大的安全缓解措施。
OpenAI 声称,这些努力是其不断完善 AI 工具以提高准确性、减少偏见和负责任地处理敏感请求的使命不可或缺的一部分。在透明度方面,OpenAI表示,它正在推进对图像来源进行分类的努力。该公司计划使用加密技术将数字凭证嵌入到 DALL-E 3 生成的图像中,作为其采用内容来源和真实性联盟标准的一部分。
此外,OpenAI表示,它正在测试一种旨在识别DALL-E生成的图像的工具。为了将用户与权威信息联系起来,特别是有关投票程序的信息,OpenAI表示已与美国全国国务卿协会(NASS)合作。ChatGPT 将引导用户 CanIVote.org 获取经过验证的美国投票信息。
“我们希望确保我们的人工智能系统得到安全的构建、部署和使用,”OpenAI 写道。“与任何新技术一样,这些工具也带来了好处和挑战。它们也是史无前例的,随着我们更多地了解我们的工具的使用方式,我们将继续改进我们的方法。