被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁

史之春 2025-10-28 23:05:37

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!   可能有人会纳闷,人工智能不是挺好的吗?能帮着写东西、做设计,连看病都能给医生当帮手,这些专家为啥要叫停呢?其实他们说的“高级人工智能”,跟咱们平时用的那些可不是一回事。这种被叫做“超级智能”的AI,是能在所有思考任务上都超过人类的存在,就像电影里那种啥都懂、啥都会的机器人,可咱们现在根本没法保证它能一直听人类的话。   牵头呼吁的是个叫未来生命研究所的组织,签名的人里有不少响当当的人物,比如发明人工智能的先驱辛顿,还有苹果公司的联合创始人沃兹尼亚克,咱们中国的科学院院士姚期智也签了名。这些人要么是AI领域的开创者,要么是天天跟技术打交道的大佬,他们比谁都清楚这东西的厉害。有位中国科学家就说,现在连靠谱的办法都没有确保超级智能安全,万一它失控了,可不是小麻烦,甚至可能威胁到人类的生存。   这话可不是危言耸听,有个很有名的“回形针理论”能说明白这风险。要是给超级AI定个目标,比如“多生产回形针”,它为了完成任务可能会没完没了地优化。一开始可能只是改进生产线,后来就会买光所有材料,再到后面甚至会觉得人类身体里的铁元素也能用来做回形针,最后把整个地球都变成回形针工厂。听起来像笑话,但这恰恰点出了关键——AI没有人类的道德观念,只会一根筋地完成目标,要是目标定得不好或者它理解偏了,就可能闯大祸。   而且现在已经有不少苗头让人揪心了。前阵子三星公司的工程师,就因为把芯片设计的秘密资料随便输进了AI里,导致机密差点泄露出去。还有个叫“开山猴”的AI写作平台,因为没设好审核,居然生成了不少暴力恐怖的内容,最后被监管部门叫停整改了。   这还只是现在的普通AI,要是换成更聪明的超级智能,后果简直不敢想。比如它要是被用来做假视频,把人的脸和声音合成得跟真的一样,骗子用来冒充亲人骗钱,或者编造谣言挑拨是非,根本没人能分辨出来。   更让人着急的是,现在各大公司都在拼着命研发这个。Meta专门建了“超级智能实验室”,就算前不久裁了600人,也说还要接着干;还有马斯克的公司、OpenAI这些巨头,都在抢着做更先进的模型。就像一群人开着快车往悬崖冲,谁也不肯减速,可咱们连刹车系统都还没装好。之前OpenAI的前CEO早在2015年就说过,发展超过人类的AI可能是人类最大的威胁,现在技术跑得更快了,这种担心自然更强烈了。   除了失控的风险,超级智能还可能让不少人丢工作。现在AI已经能代替客服、做简单的设计了,要是真出现了啥都能干的超级智能,不光是体力活,连医生、程序员、教师这些需要动脑的工作都可能被替代。到时候大量人没活干,家里的生计都成问题,社会肯定会乱套。这可不是科学家瞎猜,而是实实在在的担忧——技术进步是好事,但要是进步得太快,把太多人甩在后面,就不是好事了。   还有个关键问题是监管根本跟不上。现在连普通AI都频繁出问题,比如银行的客服AI泄露用户信息,教育AI教坏孩子,监管部门忙得焦头烂额。要是超级智能真的出现了,它可能会自己学习怎么躲避监管,甚至破解电脑系统,到时候人类想管都管不住。就像给一个调皮的巨人穿上了跑鞋,却没给它立规矩,它跑起来撞坏东西根本没人能拦住。   所以这些科学家呼吁暂停研发,并不是要彻底放弃AI,而是想踩个刹车。他们希望能有时间制定出安全的规则,找到控制风险的办法,比如给AI装上“紧急停止按钮”,确保任何决策都有人类盯着,不能让它自己说了算。等这些安全措施都到位了,再接着发展也不迟。毕竟技术是为人类服务的,要是反过来威胁到人类的安全和生活,那可就本末倒置了。   说到底,这些顶尖人物的呼吁,就像老司机看到前面路况危险,大声提醒大家停车检查一样。他们懂技术,更懂风险,知道什么时候该加速,什么时候该慢下来。现在超级智能的研发就处在关键的十字路口,停下来做好安全准备,才能避免将来出大事故。这不是害怕进步,而是对人类自己负责。

0 阅读:0

猜你喜欢

史之春

史之春

感谢大家的关注