就在今天,一众全球范围内AI领域的重要人物,包括伊隆·马斯克(Elon Musk)和OpenAI CEO萨姆·奥尔特曼(Sam Altman)等在内,共同联署了一封公开信,呼吁全球共同努力,降低人工智能导致的灭绝风险。
这封公开信由Safe AI Society发起,该组织是一个致力于推动AI安全研究和政策的非营利组织。这封公开信强调,AI的发展可能带来重大的风险,包括人类文明的存续风险。他们呼吁全球的研究者、政策制定者和公众共同努力,避免在AI发展中出现可能威胁安全的竞赛行为。
这次联署,与几个月前的一次呼吁有类似之处,但有本质不同。当时,马斯克等人呼吁,暂停训练大型AI模型六个月,主要是考虑到大型AI模型可能带来的风险和道德问题。那封公开信虽然也有上千人参与,但是这次联署中出现的很多人,并没有加入其中,比如“ChatGPT之父”萨姆·奥尔特曼,以及国内的清华大学AIR院长张亚勤。
而这一次声明虽然很短,只有22个词,但透露的情绪明显更警惕——将AI风险与瘟疫大流行和核战争,相提并论。公开信如下:
部分签署声明的专家和公众人物名单:
1. Geoffrey Hinton - 多伦多大学计算机科学名誉教授2. Yoshua Bengio - 蒙特利尔大学/米拉计算机科学教授3. Demis Hassabis - Google DeepMind首席执行官4. Sam Altman - OpenAI首席执行官5. Dario Amodei - Anthropic首席执行官6. Dawn Song - 加州大学伯克利分校计算机科学教授7. Ya-Qin Zhang - 清华大学AIR教授和院长8. Ilya Sutskever - OpenAI联合创始人和首席科学家9. Shane Legg - Google DeepMind首席AGI科学家和联合创始人10. Martin Hellman - 斯坦福大学电气工程名誉教授11. James Manyika - Google-Alphabet研究、技术与社会高级副总裁12. Yi Zeng - 中国科学院自动化研究所大脑启发式认知AI实验室教授和主任13. Xianyuan Zhan - 清华大学助理教授14. Anca Dragan - 加州大学伯克利分校计算机科学副教授15. Bill McKibben - 米德尔伯里学院舒曼杰出学者16. Alan Robock - 罗格斯大学气候科学杰出教授17. Angela Kane - 国际和平研究所副总裁,前联合国裁军事务高级代表18. Audrey Tang - 数字事务部长,国家网络安全研究所主席19. Daniela Amodei - Anthropic总裁20. David Silver - Google DeepMind和UCL计算机科学教授21. Lila Ibrahim - Google DeepMind首席运营官22. Stuart Russell - 加州大学伯克利分校计算机科学教授23. Marian Rogers Croak - Google负责人工智能和人类中心技术的副总裁24. Andrew Barto - 马萨诸塞大学名誉教授25. Mira Murati - OpenAI首席技术官26. Jaime Fernández Fisac - 普林斯顿大学电气和计算机工程助理教授27. Diyi Yang - 斯坦福大学助理教授28. Gillian Hadfield - 多伦多大学教授,CIFAR AI主席,AI向量研究所29. Laurence Tribe - 哈佛大学名誉大学教授30. 30.30. Pattie Maes - 麻省理工学院 - 媒体实验室教授31. Kevin Scott - 微软首席技术官