这两天的新闻看得人心里发慌!全球超3000名顶尖科学家和科技领域的大佬们,突然一

咸鱼干配奶茶 2025-10-27 14:30:09

这两天的新闻看得人心里发慌!全球超3000名顶尖科学家和科技领域的大佬们,突然一起发出紧急呼吁,态度特别坚决,要求立刻暂停高级人工智能的研发。为了人类安全,必须暂停研发比人类更聪明的AI。 近几日, 全球3000多名顶尖科学家和科技大佬联名发出紧急呼吁,发声要比人类更聪明的AI必须暂停研发。他们认为,在没有找到确保安全的方法之前,不应该继续研发比人类更聪明的AI系统。 发声大佬有 苹果创始人沃兹尼亚克,AI教父辛顿,谷歌DeepMind创始人穆尔等大佬纷纷表示支持超级智能可能会非常容易地操纵人类。甚至可能会骗人。 在呼吁暂停研发更高级AI的3000多名科学家和大佬发出呼声之后,Meta、OpenAI等科技公司却没有停止脚步,反而是加速研发新的超级AI。 调查显示, 超过70%的人支持对超级智能进行严格监管,在科学家确认安全之前,不应该开发超级智能。呼吁暂停研发比人类更聪明的AI的3000多名科学家和大佬中,也有不少来自东方大国的科学家,他们在联名中强调,发展人工智能要“安全、可靠、可控”。 此番集体发声,意在给飞速发展的人工智能“踩刹车”,确保安全,确保未来。 这事儿吧,可不是闹着玩的。 你瞧,这么多顶尖人物都出来说话了,说明超级AI的风险真的不小。就像之前英国那起深度伪造诈骗案,AI都能骗走2亿港元,要是超级AI真来了,那还不得上天。 不过呢, 科技公司也有自己的想法,他们可能觉得机会难得,不想错过这波发展浪潮。但问题是,安全都没保障,发展再快又有啥用呢?就好比盖房子,地基都没打好,就往上猛盖,迟早得塌。 现在公众也大多支持严格监管, 毕竟这关系到大家的未来。希望各方能好好商量商量,找到一个既能保证安全,又能让AI继续发展的好办法,别到时候真搞出啥不可收拾的局面。 总结,这AI要是不受控,说不定哪天机器人就骑到人头上了,还是悠着点吧。 科技公司急着往前冲,科学家们忙着踩刹车,这AI的路啊,有点难走了。

0 阅读:1
咸鱼干配奶茶

咸鱼干配奶茶

感谢大家的关注