在产生“不准确”后,谷歌暂停了Gemini图像工具的使用

物理数字与科技 2024-02-28 11:03:53

X平台用户表示,人工智能公司描绘多样性很重要,但表示谷歌的方法缺乏细微差别,让人感觉“被束缚”。

面对偏见指控,谷歌本周被迫暂停其生成型人工智能模型Gemini的图像生成服务。暂时停用是在用户强烈反对后进行的,他们批评该软件过于强调种族多样性,有时甚至以牺牲准确性为代价。在谷歌暂停服务之前,Gemini被发现制作了对二战时期纳粹分子、维京战士、美国开国元勋和其他历史白人人物的种族多元化描述。

谷歌在周三发布的一份声明中表示,Gemini的图像生成功能“没有达到目标”,并表示“正在努力立即改进此类描述”。谷歌随后于周四上午完全暂停了对图像生成工具的访问,并表示将很快发布该模型的新版本。当PopSci周四早上测试该服务时,Gemini拒绝生成任何图像,而是表示:“我们正在努力提高Gemini生成人物图像的能力。我们预计此功能很快就会回归,并会在发布更新时通知您。”

Gemini形象遭吐槽

谷歌本月早些时候正式开始在Gemini中推出其图像生成工具,但本周对其非白人描绘的争议加剧。X上的用户开始分享示例的屏幕截图,据报道,当特别提示描绘白人时,Gemini会生成非白人图像。批评者声称,在其他情况下,当被提示生成以白人为主的历史群体的图像时,Gemini似乎过度代表了非白人。

这些帖子很快引起了社交媒体圈的注意,他们对美国政界和商界的高压多元化和公平举措提出了质疑。在更极端的圈子里,一些账户利用人工智能生成的图像煽动毫无根据的阴谋论,指责谷歌故意试图从Gemini图像结果中消除白人。

谷歌如何回应Gemini争议?

尽管围绕Gemini的争议似乎源于批评者认为谷歌没有对白人给予足够的重视,但研究人工智能的专家长期以来一直表示,人工智能模型的作用恰恰相反,并且经常低估非白人群体的代表性。在相对较短的时间内,接受过文化偏见数据集训练的人工智能系统已经积累了重复和强化对少数族裔刻板印象的历史。安全研究人员表示,这就是为什么构建人工智能模型的科技公司需要负责任地过滤和调整其产品。图像生成器和更广泛的人工智能模型经常重复或强化从动态研究人员的训练数据中吸收的文化偏见数据,有时将其称为“垃圾输入/输出”。

2022年OpenAI的DALL-E图像生成器推出后,这种情况出现了一个版本,人工智能研究人员批评该公司涉嫌强化古老的性别和种族刻板印象。例如,当时,用户要求DALL-E制作“建筑商”或“空姐”的图像,会产生分别专门描绘男性和女性的结果。此后,OpenAI对其模型进行了调整,试图解决这些问题。

谷歌可能试图抵消Gemini的一些偏见,但在此过程中做出了矫枉过正。谷歌在周三发布的一份声明中表示,Gemini 确实通过图像输出了广泛的群体,并表示这“总体上是一件好事,因为世界各地的人们都在使用它”。

目前还不清楚是什么原因导致Gemini产生了这样的图像,但一些评论家有自己的理论。在周四接受Platformer 的Casey Newton采访时,前OpenAI信任与安全主管Dave Willner表示,平衡AI模型如何负责任地生成内容是复杂的,而且谷歌的方法“并不优雅”。威尔纳斯怀疑这些失误至少部分是由于缺乏为谷歌工程师提供的资源来正确处理这一微妙领域。

Gemini产品高级总监Jack Krawczyk在X上的一篇文章中进一步阐述了这一点,他表示该模型对人物的非白人描绘反映了该公司的“全球用户群”。Krawczyk为谷歌对待代表性和偏见的方法进行了辩护,他表示这符合公司的核心人工智能原则,但他表示,在历史提示方面可能会出现一些“不准确”的情况。

“我们意识到Gemini在一些历史图像生成描述中提供了不准确的信息,我们正在努力立即解决这个问题,历史背景对它们有更多的细微差别,我们将进一步调整以适应这一点。”他补充道。

克劳奇克和谷歌都没有立即回应用户的批评,这些用户称种族代表选择超出了严格的历史人物范围。值得一提的是,我们应该对这些说法持一定程度的怀疑态度。一些用户表达了不同的经历。

谷歌周四发布了一份单独的声明,表示将暂停Gemini的图像生成功能,同时努力解决“不准确”和明显不成比例的表述问题。该公司表示将“很快”重新发布该模型的新版本,但没有提供任何具体日期。

尽管目前还不清楚是什么原因导致Gemini生成了导致其暂时暂停的内容,但对于人工智能制造商来说,谷歌受到的在线反弹可能不会很快结束。

0 阅读:13
物理数字与科技

物理数字与科技

感谢大家的关注