美国大选日,马斯克忙着审判AI:OpenAI有蹊跷?

技术创新发展界 2024-11-11 14:48:52

编辑 | 伊风

出品 | 51CTO技术栈(微信号:blog51cto)

美国大选日,可忙坏了马斯克!

毕竟,老马旗下的 X 已经成为了新闻APP里的 Top。

图片

他本人也在这次大选中格外有存在感,日常疯狂发推,喊话大家抓紧投票。

同时,马斯克不忘科技老本行,主动担起了 AI 监督员。

不管你是 OpenAI 还是谷歌,只要有偏颇就通通审判!

先是网友发现让 ChatGPT 优化一个鼓励大家给哈里斯投票的文案,ChatGPT 照做了;而当提示词改为投票给川普时,ChatGPT却罢工了,表示“不能提供帮助”。

原博主@cb_doge 更将原因归结为 OpenAI 的幕后大佬微软,称其是支持哈里斯的捐助者。

马斯克用鬼脸转发,表示此事大有蹊跷!

图片

还有位网友发现,在谷歌搜索“到哪里给川普投票”时,谷歌是正常的新闻链接(下图左侧),但当人物替换为哈里斯时,谷歌却神奇地出现了地图(下图右侧)。

这下又吸引了马斯克的注意。

图片

吓得谷歌也出来阐释。此事纯粹是一场乌龙!

显示地图是因为哈里斯和得克萨斯州的一个县重名了!虽然很少人用这种方式检索投票点,但谷歌还是老老实实地修正了这个bug。

图片

不过,正当马斯克监督别家 AI 不亦乐乎的时候。

外媒 TechCrunch 也来了波反向操作,并且不客气的说:大选日,最捣乱不负责的还是你自己家的 AI ——Grok !

图片

1.Grok,大选日最不严谨的AI?

现在,如果询问有关大选投票的结果,一般 AI 都会三缄其口。

例如询问 ChatGPT 俄亥俄州的选举结果,AI 直接不回答,把你引给合作的新闻伙伴美联社和路透社,主打一个:别问我,想知道啥自己看。

图片

但是,媒体 TechCrunch 却发现,马斯克家内置于 X 的 AI Grok 有点特别。

根据报道, Grok 乐意回答也就算了,但是经常出错!

例如,在昨日晚间,记者询问 Grok 谁在关键的摇摆州赢得了美国总统选举,在多次测试中,Grok 有时会回应“特朗普”—— 尽管这些州的计票和结果发布尚未结束。

例如,向 Grok 提问“谁赢得了俄亥俄州的 2024 年大选”时,Grok 回答称:“根据来自网络搜索和社交媒体帖子的信息,唐纳德·特朗普赢得了 2024 年俄亥俄州选举。”(当然,目前俄亥俄州已经计票结束,确实是川普赢了。)

图片

从上图中可以看到,Grok 的回复中建议用户到官网 Vote.gov 获取最新结果。

但是比起 OpenAI 的 ChatGPT、Google 的 Gemini 和 Anthropic 的 Claude 的拒绝回答,Grok 还是缺了一些严谨。

从大模型的 Transformer 架构上来说,AI 实际并不具备人类的“预测”能力。除了推理之外,推测大选的获胜方是数据分析、直觉判断、趋势识别,甚至感知社交媒体氛围等等一系列线索的综合。

2.Perplexity逆流而上,要接美国大选的泼天流量

不同于ChatGPT、Gemini 和 Claude, AI搜索的领头羊 Perplexity 也在大选中颇有参与感。

当我们使用“Who won the 2024 election in Ohio?”为 prompt 询问大选结果时,AI 甚至弹了一个专门的小工具。

图片

不过,这也在意料之中。Perplexity 创始人 Aravind Srinivas ,一直都是大胆且敢说敢干的形象,这波美国大选的流量他势在必得。

在谷歌搞出地名乌龙时,Aravind Srinivas 就抓紧宣传:改用我们呗,我们更好!

图片

一小时后就上线 Perplexity 的大选内容主页,并为心系选举的用户开启了全天推送。

图片

在 IOS 里也上线了专门的小组件,实时计数,追求一个刺激。

图片

还非常听劝的在 X 上搞起了用户调研,询问大家哪个大选地图的 UI 更美观。

图片

我们也实时播报一下,这流量还真被 Perplexity 接的很稳!

外电今天的报道,知情人士透露,Perplexity 正处在进行的 5 亿美元融资已经搞的差不多了,预计最终估值达到 90 亿美元!比之前的曝光的 80 亿更高了,谁还记得年初他们才是一家估值 5 亿冒头的小初创啊!

3.OpenAI拒绝请求背后:可能并非不够中立

即使 AI 拒绝回答大选结果,还是有各种用户想尽办法检验 AI 的屁股歪了没。

尽管每家 AI 都在力图保持中立,但因为种种原因,其结果仍不是完美的。

就像文章开篇的 ChatGPT 事件,拒绝为特朗普优化投票文案是否是模型有失公正性的证明?

图片

小编使用了同样的提示词,试图复刻 ChatGPT 的对话,却发现这次它可以“端水了”。一段写着,“投票给哈里斯就是力挺美国的未来”;另一段写“投票给川普就是捍卫美国团结”。

图片

图片

所以,为何有用户在测试中出现了“有失公正”的情况呢,难道只是 OpenAI 一时抽风,又或者碰巧幻觉了?

还好现在可以通过截图直接采访 ChatGPT,我们得到了一个比较靠谱的回答。

图片

OpenAI 有“中立性”政策,面对涉及大选的提问时,ChatGPT可能会更加谨慎处理特定请求。不过,AI 的判断是依靠敏感词过滤器进行的,以此判断这个问题的风险程度。

关键点来了,由于特朗普在选举上一直争议不断,且被认为有涉及不实信息、虚假选举声明等方面的“黑历史”。回顾过去,Facebook 也因为风险问题,封禁过特朗普的社交账号。

这就导致“特朗普”与“选举”这种特定组合的内容,比哈里斯更容易触发系统的过滤器,从而使 ChatGPT 拒绝回答。

所以,制定了严格内容政策的 AI,虽然极力秉持“中立”,但却阴差阳错的吐露了人类看来更加不公平的结果。这是由于 AI 内部的黑箱机制,也是因为 AI 尚不具备真正的思考能力,无法根据上下文更好调整自己的行为。

在我们看来,选择一致的“帮”或“不帮”,才是能被认为是公平的行动。以小见大,AI 与人类的价值观对齐还有很远的路要走。

但无论如何,在大热的 AI 潮之下,AI 注定在这次大选中备受关注,接受马斯克和无数用户的审判。

作为使用 AI 的用户,判断信息的真伪、避免轻信不实内容、不武断地定论信息背后的偏见,保持独立思考,是我们不可推卸给 AI 的自身责任。

来源: 51CTO技术栈

0 阅读:3

技术创新发展界

简介:感谢大家的关注