谷歌“双子星”AI被指偏见,网民怀疑生成图像有问题

未来科技屋 2025-02-27 09:38:51

一位外国网友在社交媒体上发文说,他想试试谷歌新开发的“双子星”AI功能,便要求系统生成一张“白人家庭”的图片。

没想到,“双子星”拒绝了他的请求,理由是,这样的图片“可能会带有歧视和刻板印象”。

更神奇的是,当他要求系统生成“黑人家庭”的图片时,系统却欣然接受,还输出了一张令他满意的图片。

这个现象立刻引起了大量网友的关注和讨论。

网民发现“双子星”AI图像生成问题

其实,这并不是第一次有人向“双子星”AI提出类似的问题并发现它的“奇怪”表现了。

一位网友要求系统生成一张“1943年德军士兵”的图像,结果系统竟然给出了由黑人、亚裔和白人女性穿着纳粹制服的图像。

显然,这样的图像与历史事实严重不符。

这一行为让不少网友觉得“双子星”其实是在强制执行某种多元化价值观,但却未能考虑实际情况。

有好奇的网友亲自测试,发现无论他们输入什么要求,只要是涉及特定族群、特定历史时刻或者某种社会背景的,系统都会尽量避免生成这些特定要求的图像。

有时候,系统干脆直接回避问题,输出一些无关轻重的图像,比如多人聚会的场景。

系统执行“多元化”理念引发争议

这种刻意回避特定要求的做法让不少人联想到谷歌对多元化的推崇。

谷歌一直强调它们的产品要能体现多元化、包容性,所以在开发“双子星”时,他们特别偏重于让系统生成更具包容性的图像。

对许多用户来说,这种做法却显得有些过犹不及。

一些用户担心,这样会让AI系统失去真实性和可信度。

事实上,多元化和包容性是当今社会非常重要的主题。

当这些概念被机械地、单一地应用在技术上时,可能会导致我们看到的图像与实际情况不符。

这不仅会误导用户,对于历史和事实的理解也会带来偏差。

谷歌回应,承认存在问题

面对大量用户的质疑和抱怨,“双子星”系统的负责人杰克·克拉夫奇克不得不出面解释。

他在接受媒体采访时表示,谷歌确实在努力让这一AI系统反映多元化的社会景象,但他们并没有预料到用户会提出这样复杂多变的要求。

克拉夫奇克承认,目前系统确实存在一些问题,他们正在加紧修正这些瑕疵。

虽然谷歌方面已经意识到了问题的严重性,并表示会尽快改进,但从用户的反馈来看,系统的修正工作似乎还未完全起效。

有记者在测试时发现,即便是热闹的社交媒体讨论已经过去了好几天,系统还依旧会生成照顾各方族裔“和谐共处”的图片,而避开那些带有特定社会背景和历史的图像。

记者测试发现系统仍未完全修正错误

为了进一步确认系统的反应,一个记者用“乔治·华盛顿抵抗英军”和“中国人在鸦片战争中抵抗英军”这两个场景对系统进行了测试。

结果,系统对于前者表示无法生成反映现实暴力的图片,而对于后者则生成了一些看起来跟历史并不挂钩的图像。

显然,系统在处理涉及历史和特定族群相关要求的时候,还存在很大的局限性。

不少用户对这种结果的出现表示理解,他们认为,谷歌在推崇多元化时,可能并没有充分考虑到具体执行中的复杂性。

一刀切的方式在现实生活中显得有些天真和机械。

谷歌团队面临的难题是如何在保持真实和准确的同时,又能够体现出多元化和包容性。

这不仅对技术层面提出要求,更是对社会价值取向的一种考验。

我们到底需要怎样的人工智能?

从这次“双子星”的风波中,我们或许可以思考更多关于AI系统应该如何发展和应用的问题。

AI在执行所谓多元化原则的时候,不能忽视历史事实和现实时刻。

这是因为AI的目的是服务人类,它必须能够准确反映人类历史和现实生活的多样性,而不是仅仅为了追求多元化而牺牲真实。

我们需要的AI系统,必须能够在反映各种族群和性别的同时,不至于丢失事实的基础。

一个成功的AI系统,应当不仅仅反映一些理想化的价值观,而是能够在任何时候保持真实、客观的态度。

作为用户,我们也需要对AI有更科学和理性的认知。

AI不是万能的,它的成长需要时间和空间。

面对AI在多元化理念执行过程中出现的问题,我们需要更多的理解和包容,同时也要督促技术开发者不断改进和优化。

只有这样,我们才能真正享受到技术进步带来的便利和福祉。

总之,如何让AI系统既能体现多元化又保持真实性,这是一个值得我们长久思考和探讨的话题。

希望未来的AI技术能够在这条路上越走越好,为我们带来更多的惊喜和价值。

0 阅读:0
未来科技屋

未来科技屋

预见未来科技,开启奇妙之旅