被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

冷紫叶 2025-10-29 14:42:49

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 发起这事的是未来生命研究所,10月22号刚一宣布,签名名单就炸了锅,里头全是响当当的人物。 AI教父杰弗里・辛顿、苹果联合创始人沃兹尼亚克、维珍集团的布兰森这些科技圈大佬全在列。更少见的是,前美国国家安全顾问苏珊・赖斯、前参谋长联席会议主席迈克・马伦也签了名,连英国王妃梅根和特朗普的盟友班农这种立场差老远的人都站到了一起。这种跨政治、跨领域的联手,这辈子都难见几次,足见这事有多严重。 咱们中国学界也有不少人参与,姚期智、清华的薛澜和张亚勤,还有人工智能伦理专家曾毅都签了字。他们的态度其实呼应了国内一直强调的“安全可控”理念,毕竟谁也不想技术跑偏。 可能有人要问,到底啥是“高级人工智能”?业内给的定义很明确,就是那种在所有核心认知任务上都能全面超过人类的AI形式。不是现在帮着写文案、做表格的工具,是真能独立思考、能力远超人类的存在。曾毅之前在央视直播里就说过,以50年为限,这东西肯定会来,但问题是人类根本没准备好。 这些大佬们怕的不是算法偏见或者丢工作这种小事,而是更致命的系统性危机,签名里的警告写得特别狠,说这东西可能导致人类经济落后、权力被剥夺,连自由和尊严都保不住,严重了甚至会让人类灭绝。这话听着像科幻片,但说这话的都是一辈子跟技术打交道的人,他们比谁都清楚其中的门道。 曾毅就直言,现在根本没有切实可行的办法保证这种AI的安全,他还说AI不是中立的,人类的偏见、歧视都会被它学进去,而且构造这种智能的每一种方式都藏着风险。更让人揪心的是,他预测未来的类脑智能可能会用生物材料,存算一体的模式跟现在的硅基AI完全不同,这种未知性本身就是巨大隐患。 图灵奖得主约书亚・本吉奥也提到,必须用科学手段造出从根本上不会伤害人类的系统,不管是目标跑偏还是被坏人利用,都得彻底堵死漏洞。他还反复强调,普通人也该在这种关乎未来的决策里有话语权,不能光靠少数人拍板。 其实这不是第一次有人喊停了,2023年AI爆发那阵,马斯克和沃兹尼亚克就带着1000多人签过信,要求暂停至少6个月。更早的时候霍金活着的时候也警告过,说AI的威胁比核武器还大。这么多大佬前赴后继地呼吁,显然不是杞人忧天。 普通老百姓的态度也很明确,发起倡议的机构做过美国民调,只有5%的人支持现在这种无监管的AI开发,73%都想要更严的监管,64%觉得没达成安全共识前就不该开发。这说明学界的担忧跟公众的感受是同频的,不是专家们在自说自话。 最近闹得沸沸扬扬的AI乱象更印证了这种担忧不是空穴来风,茶界泰斗张天福都去世8年了,居然被AI合成视频拉去带货。央视主持人的脸被克隆来推销假药,奥运冠军的声音被盗用去卖土鸡蛋。这些还只是现在的技术,要是真到了超级智能阶段,后果不堪设想。 不过也不是所有人都同意暂停,谷歌就没当回事,还在重组部门专攻AI聊天技术,Meta的首席AI科学家直接说不认同倡议的前提,压根没签字。连签了名的StabilityAI老板后来都反悔,说不赞成暂停6个月的提议。 这种分歧也能理解,毕竟AI发展太快,各国各公司都在抢进度,科大讯飞的高管之前就说过,想全球统一暂停太难了,大家都在竞争,谁也不想落后。现在美国和欧盟的AI法案就不一样,一个重自律一个重透明,想达成共识确实不容易。 但这次3000多人的联名分量不一样,有分析说这可能会推动G20或者联合国重新讨论AI伦理,让治理从各自为政变成多边协商。毕竟技术再发展,也得有个刹车装置,总不能真等出了乱子再回头补救。 说到底,这些大佬们不是要扼杀技术,而是想让发展慢下来等一等安全,就像开车再急,也得先确认刹车管用。要是真等超级智能失控了,人类可能连后悔的机会都没有。这事儿不光是科技圈的事,跟咱们每个人的未来都息息相关。

0 阅读:1
冷紫叶

冷紫叶

感谢大家的关注