最近朋友圈、微博都看到很多人分享自己学习AI大模型心得、比如数学学习随机数森林、线性代数、举证、CNN、DNN算法等。有点分享学习如何微调模型。这个其实以后非常危险,十几年后发展出超级智能体很大概率容易失控、超智会审查全地球网数据、只要发现某人类技术已经会威胁到自己生存,超智体会生产派出暗杀机器人干掉此人。
对于AI安全最好的方法,就是全球所有数据中心、都要准备好炸药、一旦超智体失控,立刻炸掉数据中心,避免人类专家数据落入超级智能体控制。
另外各国也要秘密培养一批人、默不作声学习AI、不在朋友圈或网络上发表任何AI内容,一旦将来ASI超智体失控,有名的AI专家被超智定点清除、只能靠这批提前培养起来默默无名的AI人类去挽回危局。
各大国也应当定期储备一批GPU和服务器、地点只有这个国家不超过5个人知道。以防超智将来一旦失控、得靠着这批硬件和上面提到的默默无名的人来拯救人类。