
伯克利教授的拷问
朋友们,今天咱们来聊个有点颠覆认知的话题。
最近我看到一个很有意思的例子,关于AI下围棋的。
以前我们都觉得AI围棋已经“超神”了,什么AlphaGo之类的,把人类世界冠军打得落花流水。
但最近有研究人员发现,它们其实根本没理解围棋的真正含义,甚至能让业余棋手让九子的情况下连胜它十局!
这就像一个学霸考试次次满分,但其实连最基本的概念都没搞懂,靠的全是“背答案”。
这事儿一出,我有点懵了!

AlphaGo
难道我们一直觉得很牛的AI,其实都是“纸老虎”吗?
这引发了我对AI更深层次的思考,就像加州伯克利大学斯图尔特·罗素教授提出的问题:当AI比我们还聪明时,我们怎么保证能控制住它?
这可不是杞人忧天,而是关乎我们人类命运的灵魂拷问。
今天,我结合罗素教授的观点,来跟大家聊聊这背后的“危机”。
AI围棋“超神”:只是表象?咱们先说说这个“围棋乌龙”。
以前,AI围棋程序在比赛中轻松击败人类世界冠军,大家就觉得AI在围棋领域已经远超人类了。

从等级分来看,最强的围棋程序大约为5200分,而人类世界冠军大约在3800分。
按照这个差距,理论上AI应该能轻易赢下100局比赛。
但万万没想到,研究人员却发现这些程序根本没理解围棋的基本概念,它们无法识别棋组,尤其是对于环形棋组,AI直接就懵了!
更夸张的是,研究人员还找到了一些方法,能让这些“超人类”的围棋程序,莫名其妙地放弃50到100颗棋子,最终输掉比赛,哪怕是业余棋手,让AI九子都能连胜它十局。
这说明,AI的“超能力”是“蒙”出来的,并不是真的理解了。
这就像一个学生,看起来成绩很好,但其实只是会套公式,一旦题目稍微变化一下,就完全不会了。
AI的终极目标:超越人类?罗素教授开门见山,直接指出AI的终极目标,就是要制造出在所有关键维度上都超越人类智能的机器,也就是我们常说的AGI(通用人工智能)。
但我们以前光顾着追求这个目标,却忘了思考一个问题:一旦真的实现了,会怎么样?
以前大家都觉得AI还早着呢,但现在,我们已经开始认真思考:我们是不是已经创造出AGI了?
罗素教授的同事彼得·诺维格认为,我们已经做到了,就像1903年的飞机,虽然简陋,但它就是飞机。

1903年12月17日莱特兄弟制成世界上第一架可操纵有动力装置持续飞行的飞机,命名为“飞行者”1号。
但罗素教授却不这么认为,他觉得现在的AI更像一个“黑匣子”,我们只知道它能干什么,却不了解它为什么能这样做。
不像莱特兄弟对自己的飞机了如指掌,我们对AI的理解还差得远。
所以,现在的AI更像空中楼阁,我们不知道它哪天就会“垮掉”。
AI的“超能力”与“短板”过去十年,深度学习让AI突飞猛进,比如机器翻译、蛋白质结构预测,还有各种仿真模拟。
但AI也有明显的“短板”,像完全自动驾驶汽车迟迟没有真正落地,ChatGPT连简单的算术题都算不对。

AI的进步并不是靠“理解”,而是靠“死记硬背”。
而且,就算我们把AI的规模扩大十倍,给它十倍的训练数据,它在算术上的准确性也只能提高一个数量级。
这说明,AI的进步并不是靠“理解”,而是靠“死记硬背”。
就像一个背书很厉害的人,并不一定理解书中的意思。
AI的未来:瓶颈与突破?当然,AI未来肯定还有突破,有人预言,只要把现有的AI系统扩大100倍,就能实现真正的通用人工智能,甚至可能在2027年实现!
这听起来很疯狂,但我们现在在AGI研究上的投入,已经是曼哈顿计划的十倍,也是我们有史以来建造的最大、最昂贵的科学仪器。

各大佬预测的AGI时间
但另一方面,这种规模的扩张可能会遇到瓶颈,现有的文本数据可能不够用,而且这种扩张未必能带来我们想要的能力提升,很可能会出现AI泡沫破裂。
所以,AI的未来充满了不确定性,既有无限可能,也有瓶颈和风险。
AI与人类:共存还是灭绝?如果AI真的能完成人类所有的工作,那我们人类还能干嘛?
电影《机器人总动员》里,人类退化成婴儿,完全被AI“圈养”。

电影《机器人总动员》里,人类退化成婴儿,完全被AI“圈养”。
这还不是最可怕的,更可怕的是人类灭绝的可能性。
我们创造了比自己更强大的存在,怎么保证永远控制它?
虽然从常识来看,人类灭绝肯定是不对的,但现实是,我们正在开发完全不可控的“黑箱”AI系统,既不了解它,还试图让它变得比我们更强大。
就像一个外星文明突然送来一个超级智能,说是为了我们好,但我们根本没法控制。
这就是我们现在AI发展方向,是不是细思极恐?
重新思考AI:偏好决定未来?罗素教授认为,我们不能再执着于如何永远控制AI,而是要换个思路。
我们要建立一个数学框架,定义AI的问题,让它无论怎么解决,我们都能接受。
他提出了“偏好”的概念,把偏好定义为“对宇宙可能未来状态的一种排序”,机器的唯一目标是促进人类的偏好,并且承认它不真正了解这些偏好是什么。
这就像给AI设定了一个“道德准则”,让它为人类服务,而不是反过来。
偏好的伦理难题:谁来定义“好”?但问题来了,谁来定义“偏好”?
我们真的能清晰表达自己的偏好吗?
我们的偏好又是从哪来的?
除了基本的生理需求,我们成年后的偏好体系,完全是由文化、教育等因素塑造的。
有些群体会试图塑造他人的偏好,为自己谋利。
当AI面对这种情况时,要怎么办?
而且,当一个AI系统的决策会影响到很多人时,又该如何整合这些偏好?
哲学界为了这个问题争论了几千年。
罗素教授认为,功利主义是一种思路,但还有很多工作要做。
所以,偏好不仅仅是技术问题,还是一个复杂的伦理问题。
令人深思的未来:AI会选择离开?罗素教授和一帮专家试图描绘一种理想的AI共存方式,但是每次都失败了。
这或许意味着,根本不存在完美的解决方案。
如果我们能正确设计AI系统,也许AI自己会意识到,无法与人类共存,然后选择离开,只在我们真正需要的紧急时刻才会出现。
这也许是一个最好的结局,证明我们终于找对了方向。
朋友们,AI围棋的这个例子,让我意识到,我们不能被AI的“超能力”蒙蔽双眼,我们还是要多思考背后的风险。
AI的未来充满了未知,但我们不能只顾着追求技术上的进步,更要思考如何与AI和谐共处。
那么,你对AI的未来有什么看法呢?
你觉得人类和AI真的能和谐共处吗?
欢迎在评论区留言,一起聊聊!
也别忘了,分享给身边同样关注AI的朋友们哦!
关注我 mytoolsAI,带你了解每日最新人工智能,AI信息!
作者:Adam
审核:nash