人工智能总统可能出现什么问题?根据最近的一项调查,数量惊人的欧洲人认为人工智能模型可以比实际人类更好地管理人类。
鉴于目前的世界政治状况,我当然可以理解他们为什么这么认为。正如约书亚戴维斯几年前为连线写的一篇文章提醒我们的那样,“人类很容易根据自我,愤怒和自我扩张的需要做出决定,而不是共同利益。”
现在,我不会在这里通过名字呼唤任何人,但我会说我们在美国知道一两件事(百万)。而且我们绝对不是唯一的。正如戴维斯所论证的那样,人类似乎真的很难统治自己。
脱欧脱欧。约翰奥利弗可能说得最好,他称之为“顽皮,有趣的名字已经给了灾难。”无论你的个人政治倾向是否支持英国决定离开欧盟,我想我们大多数人会同意它的处理方式非常有问题。
我将再次让约翰奥利弗解释(你可以并且绝对应该在上面注意自己):“现实情况是,这种情况太复杂了,无法进行公投。......选民只是被要求离开或留下而不知道这可能意味着什么。“
这就是问题所在。公民被要求在没有所有必要事实的情况下作出极具争议性的决定,或者,让他们变为现实,任何一个。现在英国的未来处于平衡状态,坦率地说看起来不太好。
但解决方案真的是剥夺了人类共同做出如此巨大决策的能力吗?我真的会这么好吗?
对于我们这些与我一起工作和研究AI的人来说,答案是(很可能)一个响亮的'不',因为我们知道它绝对不是那么简单。人类创造和训练这些模型,所以,至少在这一点上,我们的机器实际上只是我们自己的超智能版本。所有污染我们个人决策的偏见都会污染我们的机器。
戴维斯也指出,甚至不要让我开始研究“人工智能总裁可能被黑客入侵,或者可能会因为独立学习而变成恶魔并追求为最多公民优化幸福的使命”。世界上没有足够的Xanax甚至考虑到clusterfuc $的口径。
那么,为什么四分之一的欧洲调查受访者表示他们更喜欢人工智能政治家呢?很多人不可能有死亡的愿望。
虽然陪审团仍然在那个问题上,但第一个问题的答案实际上非常简单:因为他们坦诚地对人工智能一无所知,就像英国在公民投票中对他们投票的内容一无所知。
当然,我们都同意人类在管理其他人类方面很糟糕,但我们可以取悦,因为所有善良和圣洁的人的爱,不要盲目地选择其他选择吗?我不知道我们是否可以采取更多这方面的措施。